Главная » Статьи » помощь веб-мастеру |
В категории материалов: 123 Показано материалов: 113-116 |
Страницы: « 1 2 ... 27 28 29 30 31 » |
Давайте поговорим про рамблер,3-ий поисковик по рейтингу Рунета.
Робот рамблера называется StackRambler.
Автор: uMaster Получить ссылку
В новом окне Просмотров:[617]Добавлено:23.08.2009 Подробнее
Последнее время, сидя на форумах,я вижу такие посты: Нужен граббер; залейте файлы на сайт граббером за +; Граббер для DLE и прочее.
Вот небольшое объяснение,что такое "ГРАББЕР"
Что такое граббер и что такое парсер
В терминалогии веб-разработок граббер - это специализированный скрипт, который позволяет "выкачивать" информацию с чужих сайтов на свой. В отличии от грабберов, парсер способен распознать информацию в груде "мусора" и обработать ее в соотвествии с поставленной задачей. Сегодня оба понятия используются как синонимы.
Зачем нужны грабберы и парсеры
1. Для поддержания актуальности информации.
К примеру, пользователям Вашего сайта очень важно знать текущий курс валют. Изменять курс в ручную обычно не удобно, так как требует ежедневного внимания к веб-ресурсу. А что делать если информация меняется слишком быстро и не равномерно. Если для Вас важно, чтоб на сайте всегда находилась самая актуальная информация и при этом чтобы Вам не приходилось самому постоянно ее обновлять, то наилучшим решением будет использовать скрипт граббера или php парсер.
2. Для автоматического обновления страниц.
Сайт, информация на котором редко обновляется обычно редко посещается. Пользователю уже побывавшему на Вашем сайте становится просто не интересно. Такие сайты называют "мертвыми". Но что делать если Вам не хватает времени обновлять информацию на сайте? Использовать автоматическое добавление новостей, новых статей по тематике сайта и прочей информации с других ресурсов схожей тематики с помощью специализированных скриптов - парсера новостей или граббера контента сайтов.
3. Моментальное наполнение сайта полезной информацией.
Все ресурсы сети когда то начинались "с нуля". Однако если Ваш ресурс направлен на предоставление информации (каталог ссылок, архив рефератов, база текстов или аккордов песен), то заполнять сайт с нуля в ручную - процесс долгий и трудоемкий. Интересен пользователям Ваш сайт станет только тогда, когда размер информационной базы на Вашем сайте перевалит за определенное количество. Парсеры и грабберы (например граббер ссылок) - отличное решения задач подобного рода. Их использование позволит Вам быстро догнать конкурентов и значительно расширить свой каталог информации.
4. Интегрирование (объединение, централизация) информации.
В сети Интернет огромное количество страниц с важной для пользователя информацией, главным недостатком которой является ее разрозненность. Используя скрипты грабберов контента сайтов, можно объединить всю полезную информацию, разместив ее на одной странице. Согласитесь, очень удобно, когда вся информация с разных сайтов объединена в один. К примеру новости: пользователь с большим энтузиазмом зайдет на сайт, где сможет в одном месте прочитать все новости со всех новостных сайтов, чем станет открывать каждый из них. При подобном использовании грабберов и парсингов авторы подобных сайтов обычно и не скрывают первоисточник информации. Их цель - удобство пользователя, а значит и большая посещаемость собственного ресурса.
Но. Неужели граббер так хорош? А вот и нет! Добавив лишь 1-10 новостей граббером,вы обречены на бан(см. что такое бан?-предыдущая статья).
Поэтому я не рекомендую вам им пользоватся!
Удачи!С вами был Иван саввин
Автор: uMaster Получить ссылку
В новом окне Просмотров:[668]Добавлено:23.08.2009 Подробнее
Что значит "В бане у Яндекса" или "В бане у Google"?А дело собственно в том,что сайт не индексируется поисковиками.Но об этом чуточку позже.
Каждый человек,имеюший свой сайт,обязательно сталкивается с проблемой, такой как РАСКРУТКА. На первый взгляд ничего сложного: прогнал по каталогам, зарегистрировал в поисковиках,соц. закадках и т.п. Но,есть одно НО!
Что если вы,человек который копирует все содержимое с сайтов и гордится этим? Тогда вам придется нелегко. В предыдущей статье я описал слабости поисковиков. Пока обратим внимание на Яндекс. Яндекс - главный поисковик Рунета. Попасть в его индекс не так просто! Вот тут мы и встретились с ответом,почему вам будет нелегко.
Отличительной особенностью сайта является то, что Яндекс не может устоять перед уникальным контентом сайта. Поэтомучтобы быть проиндексированым,надо иметь свое содержимое.
У Google таже ситуация, поэтому ее описывать я не буду.
С вами был как всегда, Иван Саввин
Автор: uMaster Получить ссылку
В новом окне Просмотров:[655]Добавлено:23.08.2009 Подробнее
Автор: uMaster Получить ссылку
В новом окне Просмотров:[698]Добавлено:28.05.2009 Подробнее