Главная » Статьи » помощь веб-мастеру |
В категории материалов: 123 Показано материалов: 61-64 |
Страницы: « 1 2 ... 14 15 16 17 18 ... 30 31 » |
Поисковые сервера всегда перед индексацией вашего ресурса ищут в корневом каталоге вашего домена файл с именем "robots.txt" (www.mydomain.com/robots.txt). Этот файл сообщает роботам (паукам-индексаторам), какие файлы они могут индексировать, а какие нет.
Формат файла robots.txt - особый. Он состоит из записей. Каждая запись состоит из двух полей: строки с названием клиентского приложения (user-agent), и одной или нескольких строк, начинающихся с директивы Disallow:
<Поле> ":" <значение>
Robots.txt должен создаваться в текстовом формате Unix. Большинство хороших текстовых редакторов уже умеют превращать символы перевода строки Windows в Unix. Либо ваш FTP-клиент должен уметь это делать. Для редактирования не пытайтесь пользоваться HTML-редактором, особенно таким, который не имеет текстового режима отображения кода.
Поле User-agent
Строка User-agent содержит название робота. Например:
User-agent: googlebot
Если вы обращаетесь ко всем роботам, вы можете использовать символ подстановки "*":
User-agent: *
Названия роботов вы можете найти в логах вашего веб-сервера. Для этого выберите только запросы к файлу robots.txt. большинство поисковых серверов присваивают короткие имена своим паукам-индексаторам.
Поле Disallow:
Вторая часть записи состоит из строк Disallow. Эти строки - директивы для данного робота. Они сообщают роботу какие файлы и/или каталоги роботу неразрешено индексировать. Например следующая директива запрещает паукам индексировать файл email.htm:
Disallow: email.htm
Директива может содержать и название каталога:
Disallow: /cgi-bin/
Эта директива запрещает паукам-индексаторам лезть в каталог "cgi-bin".
В директивах Disallow могут также использоваться и символы подстановки. Стандарт диктует, что директива /bob запретит паукам индексировать и /bob.html и /bob/index.html.
Если директива Disallow будет пустой, это значит, что робот может индексировать ВСЕ файлы. Как минимум одна директива Disallow должна присутствовать для каждого поля User-agent, чтобы robots.txt считался верным. Полностью пустой robots.txt означает то же самое, как если бы его не было вообще.
Пробелы и комментарии
Любая строка в robots.txt, начинающаяся с #, считается комментарием. Стандарт разрешает использовать комментарии в конце строк с директивами, но это считается плохим стилем:
Disallow: bob #comment
Некоторые пауки не смогут правильно разобрать данную строку и вместо этого поймут ее как запрет на индексацию ресурсов bob#comment. Мораль такова, что комментарии должны быть на отдельной строке.
Пробел в начале строки разрешается, но не рекомендуется.
Disallow: bob #comment
Читайте полный материал
Автор: uMaster Получить ссылку
В новом окне Просмотров:[527]Добавлено:11.11.2009 Подробнее
Как ускорить индексацию сайта - этот вопрос часто можно встретить на форумах вебмастеров. От индексации зависит очень многое: позиции сайта в поисковиках, количество посетителей с них, популярность ресурса, и, в конечном итоге, прибыль с сайта. Я собрал способы, которые я опробовал при продвижении сайтов и которые действительно эффективны для улучшения и ускорения индексации сайта поисковыми системами.
По направленности все способы можно разделить на две категории - внутренняя оптимизация сайта и работа с внешними факторами. По финансовым затратам - бесплатные и платные способы.
Как ускорить индексацию сайта - бесплатные способы
1. Создайте карту сайта для Google (sitemap) в формате xml. Для создания html и xml карт для своего сайта воспользуйтесь онлайн-генератором http://www.xml-sitemaps.com/, который бесплатно обрабатывает до 500 страниц. После генерации сохраняете sitemap в корне своего сайта в формате xml. Для того, чтобы скормить xml-карту поисковой систему Google, нужно зарегистрировать аккаунт в Сервисе Google web master, и затем в меню Sitemap добавить ссылку на вашу xml-карту вида ваш_сайт/sitemap.xml. После регистрации в этом сервисе можно настроить русский язык интерфейса. По моим наблюдениям, после добавления sitemap в Google робот этой поисковой системы начинает чаще заглядывать на ваш сайт и лучше его индексировать. Кроме того, сервис Google для вебмастеров предлагает много полезных опций.
2. Создайте html карту сайта в 1 клике от главной страницы, на которой находятся ссылки на все страницы вашего сайта. Если страниц очень много, то разбейте карту сайта на несколько страниц. Разместите ссылку на карту сайта на всех страницах.
3. Зарегистрируйтесь в сервисе Яндекс:Вебмастер и добавьте свой сайт, что позволит отслеживать индексацию страниц сайта Яндексом, а также пользоваться другими полезнымыми функциями.
4. Регистрация в каталогах - если вы еще не регистрировали сайт в каталогах, то советую сделать это. Подробнее о регистрации в каталогах читайте тут: "Как регистрировать сайт в каталогах". Можно регистрировать сайт вручную. Искать каталоги можно, набрав запрос "каталог сайтов" в любом поисковике. Это очень долгий и трудоемкий процесс. Можно купить программу Allsubmitter с базами каталогов, которая значительно облегчает регистрацию в каталогах. Можно заказать прогон по каталогам (например, на форуме тут). Можно использовать специальные сервисы регистрации в каталогах:
Автор: uMaster Получить ссылку
В новом окне Просмотров:[522]Добавлено:09.11.2009 Подробнее
Индекс - база данных поисковой машины
Индексация - обход поисковым роботом (пауком, ботом) содержимого страниц сайта, обнаружение на них текстов, изображений и гиперссылок и внесение новой информации в базу данных (индекс) поискового сервера. После индексации и апдейта информация на сайте может быть найдена в поисковой выдаче.
Ускорить индексацию сайта возможно:
- добавлением адреса сайта специальные формы
поисковых систем ("добавить сайт"), например:
- получением достаточного
количества внешних ссылок на сайт.
- использованием сервисов "для веб-мастера" и
прямого указания нужных для индексации страниц в
файле карты сайта sitemap.xml, например
Запрет от индексации определенных разделов или
страниц сайта возможно сделать директивой
Disallow: в файле в robots.txt.
Запретить роботам индексацию форума на сайте можно
например такой записью:
User-Agent: *
Disallow: /forum
Подробнее -
Запретить индексацию (учет) роботом части
информации на конкретной странице можно
определенными тегами в коде страницы, например:
Для Яндекса - <noindex></noindex>.
Находящийся внутри этого тега текст не индексируется.
Для Google - атрибутом rel="nofollow"
можно запретить учитывать исходящую ссылку, например
таким образом:
Посетите <a href="http://www.site.ru/"
rel="nofollow">сайт</a>
Подробнее -
Автор: uMaster Получить ссылку
В новом окне Просмотров:[496]Добавлено:09.11.2009 Подробнее
function
setCookie(name, value, days)
{
if
(days)
{
var
date =
new
Date
();
date.setTime(date.getTime() + (days *
24
*
60
*
60
*
1000
));
var
expires =
";
expires="
+
date.toGMTString();
}
else
var
expires =
""
;
document.cookie = name +
"="
+ value +
expires +
";
path=/"
;
}
function
getCookie(name)
{
var
nameEQ =
name +
"="
;
var
ca =
document.cookie.split(
';'
);
for
(
var
i =
0
; i < ca.length; i++)
{
var
c =
ca[i];
while
(c.charAt(
0
) ==
' '
) c = c.substring(
1
,
c.length);
if
(c.indexOf(nameEQ) ==
0
)
return
c.substring(nameEQ.length,
c.length);
}
return
null
;
}
function
eraseCookie(name)
{
setCookie(name,
""
,
-
1
);
}
зы. Помещаем эти функции в блокнот и сохраняем с кодировкой UTF-8 под названием cookies.js
дальше читайте полный материалАвтор: uMaster Получить ссылку
В новом окне Просмотров:[584]Добавлено:07.11.2009 Подробнее