Еще раз всем здраствуйте) В этой статье я расскажу как
правильно
заточить документ robots.txt под поисковые системы и как быстро попасть в
индекс поисковых систем. Ну
начнем:
1.
Создание robots.txt под uCoz
Рассмотрим
основные теги этого документа: Disallow: это дистрибутив
запрещающий индексацию страницы или каталога. Allow: это
дистрибутив разрешающий индексацию страницы или каталога.
Таким
образом мы можем запретить индексацию любого каталога,но разрешить
индексацию некоторых страниц тогоже каталога. Возьмем для
примера
модуль Каталог файлов Каталог модуля
расположен поадресу
/load/ Если поставить:
Disallow:
/load/
То
каталог файлов у нас индексироватся не будет,но если нам нужны
2-3 странички этого каталога из всех (к примеру всего 10) То в
robots.txt пишем следущие строки:
Allow: /load/адрес
страницы
Внимание: строки с разрешением
индексации
страницы должны быть выше чем строка с запрещением индекса
каталога. Пример:
Таким
образом у нас будет индексироватся только те страницы
которые указаны под тегом Allow Теперь разберемся с тегом
User-agent это тег открывающий информацию о
боте для которого будут доступны
настройки всего того что ниже. Тег User-agent ставится в самом
верху и после него указывается имя бота для проверки например:
User-agent:
uBot
Но
если вы хотите указать для каждого бота поисковой системы,либо
каталога сайтов и т.п. один и тот же дистрибутив, то ставим следущий
тег:
User-agent:
*
И
ниже перечисляем запреты и открытия разных страниц и каталогов.
Итак основная работа сделана и уже можно использовать этот
документ для
всех ботов, но если вы хотите лучшей индексации сайта и лучшего
отоброжения его поисковым системам, лучше вписать еще такие строки:
Это
адресация на стандартные карты сайта системы uCoz, если у вас
есть свой карта сайта, впишите свою. Далее тоже не маловажно
указать основной домен сайта. (Если у вас стандартный
домен от
uCoz то вам ничего делать ненадо) Если же вы
прикрепили какой
то домен к сайту, к примеру возьмем net.ru Он будет
отображаться
поисковикам как зеркальный домен и будет хуже индексироватся чем
основной. Поэтому многие ошибочно говорят что net.ru и другие
подобные домены хуже индексируются чем стандартные от uCoz.
Для
того что бы поисковый бот определил прикрепленный домен как основной нам
надо прописать в robots.txt такую строчку: Host:
www.имя-сайта.домен Пример:
Host:
www.web-mir.net.ru
Также
есть еще много всего,но это особо ненужно и уже по этой инструкции
можно составить отличный robots.txt для поисковиков. Пример
готового robots.txt для uCoz:
2.Теперь
разберемся со скоростью индексации сайта созданного в системе
uCoz.
На uCoz есть такая штука под
название Карантин Подробнее о нем можно
узнать тут: http://forum.ucoz.ru/forum/21-13447-1 Ну
а
теперь и я расскажу все что знаю про этот карантин: После
создания
каждого сайта у него есть некоторые ограничения, одним из них является
закрипление стандартного robots.txt и его к сожалению никак
нельзя
отредактировать... если залить свой в корень сайта, тоже останется
стандартный. Казалось бы ну и что в том, что он стандартный?
Да ничего хорошего, в нем прописана такая строка:
User-agent: *
Disallow:
/
Эта
строка
запрещает всем поисковым системам индексировать ваш сайт. Итак
как
же снять карантин? есть 3 способа 1) По каким то не
умным
действиям администрация uCoz снимает карантин если сайт хорошо
посещается. Но они не подумали как он будет хорошо посещатся если он
закрыт для индекса. 2) Подождать отведенное время карантину
(1-2
месяца) 3) Приобрести Премиум аккаунт (любой). Вот в
админке
видем такой тариф: Базовый
($3.09) Если его приобрести,
у нас автоматически снимается карантин и мы можем спокойно заявить
поисковикам о нашем сайте. Спасибо за внимание
Автор: ser15 http://web-mir.net.ru/
Добавлять комментарии могут только зарегистрированные пользователи. [ Регистрация | Вход ]
Создатели u.Tools не несут ответственности за размещаемые материалы. Каждый файл принадежит его создателю.
Сайт оптимизтрован для просмотра в брузерах:Firefox & Opera при разрешении экрана 1280x1024 пикселя.