Главная » Статьи » уроки |
В категории материалов: 58 Показано материалов: 13-16 |
Страницы: « 1 2 3 4 5 6 ... 14 15 » |
АГС-17 уже давно прозвали Анти-Говно-Сайтовым фильтром. По мнению разработчиков Яндекс, этот алгоритм призван бороться именно с некачественными сайтами.
Хотя сам фильтр появился более 3 лет назад, полномасштабный запуск
произошел недавно. Запуск алгоритма сопровождается множеством вылетов
сайтов сателлитов (в том числе и сеток). Однако алгоритм достаточно
сырой и можно сказать, что Яндекс палит из пушки по воробьям. В итоге
многие качественные СДЛ (сайты для людей) тоже выпали из индекса, а
некоторые сайты сателлиты наоборот спокойно живут.
Теперь более конкретно, что происходит.
В последнее время наблюдается неестественная активизация робота Яндекс,
который усиленно сканирует содержание всех страниц сайта. После анализа
сайта робот принимает решение о том, чтобы оставить в индексе только
необходимые (здесь по мнению Яндекса полезные пользователям) страницы
сайта. Т.е. для многостраничного сайта в индексе остается лишь малая
часть страниц. В итоге такой работы робота в индексе остаются страницы
сайта с полезным уникальным контентом и те страницы, которые интересны
пользователям. По мнению Яндекса этого количества страниц должно
хватить для того, чтобы сайт был в выдаче по основным поисковым
запросам.
На данный момент абсолютно полностью не известно, как влияют доноры для тех сайтов, у которых часть страниц выпала из индекса. Например, всем известный СЕО Пульт на данный момент приостановил съем ссылок, которые не в индексе, т.к. полномасштабные исследования не проводились и не известно продолжают ли работать ссылки на донорах, которые попали под фильтр Яндекса АГС-17.
Не смотря на то, что под фильтр частично попали и хорошие сайты, смысл данного алгоритма отсеять именно плохие сайты:
1. Сайты, которые продают ссылки.
2. Сайты с ворованным контентом.
3. Просто плохие сайты (шаблонный дизайн, не качественная верстка, генерированные тексты на сайте).
4. Сайты на молодом домене.
5. Сайты с резким ростом ссылочной массы.
Немного конкретики:
На данный момент даже если сайт частично выпал из индекса, на некоторых сайтах трафик существенно снизился, на других вообще не изменился. Если же под фильтр попал качественный и хороший сайт – пишите Платонам.
В итоге, благодаря фильтру Яндекса АГС-17 можно с уверенностью сказать, что количество дешевых доноров значительно уменьшилось. Ведь в SAPE, не смотря на ручную проверку сайтов, многие сайты сделаны именно для получения доходов (продажи ссылок).
Автор: uMaster Получить ссылку
В новом окне Просмотров:[845]Добавлено:15.01.2010 Подробнее
Если же требуется еще поля или необходимо
создать более сложную форму чем форма из текстовых полей, то действуем
следующим способом:
1.Создаем дополнительную форму в шаблоне "Добавления/редактирования материала"
2.Обводим основную форму в именованный объект и добавляем новую кнопку сохранения материала
Здесь предоставлена сама идея создания дополнительных полей. Без знаний джаваскрипта писать его безсмысленно.
Cами скрипты вы найдете, нажав "Подробнее"
Автор: uMaster Получить ссылку
В новом окне Просмотров:[2230]Добавлено:07.01.2010 Подробнее
Требования
1. Знать отлично русский язык
2. Иметь в день минимум 10 минут свободного времени
3. Иметь фантазию
Система размещает на продажу ваши статьи,переводы,измененные тексты. Так же вы сами можете закупить уникального контента
Есть 3 основных категории работ:
1. Копирайтинг
2. Рерайтинг
3. Перевод
Я кратко объясню что это такое
Копирайтинг - это уникальный текст,который пишет автор,не плагиатит с изменением чужой текст .
Рерайтинг - это изменение чужого текста для повышение уникальности .
Перевод - это перевод текста с одного языка на другой,перевод должен быть не дословный
Начинаем работать
1) Регистрируемся в системе адвего: http://advego.ru/5uJePwRNyM
2) Знакомимся с интерфейсом
3) Выбираем тип текста,который будем продавать
Самый оптимальный вариант - рерайтинг и копирайтинг
Забудем на время о веб 2.0, о ГС,сайтах о юкозе и т.п.
Продавать будет статьи на тематику Стройка,Ремонт,Медицина и тому подобные
Если вам тяжело писать текст на данную тематику,то будет его изменять с повышением уникальности - тобишь рерайт
Заходим в любую ПС и ищем текст который будем рерайтить,советую о стройке и ремонте,очень легкая тема
Я нашел такой текст
Автор: uMaster Получить ссылку
В новом окне Просмотров:[870]Добавлено:02.01.2010 Подробнее
Первой полноценной поисковой системой стал проект WebCrawler появившийся в 1994 году.
В 1995 году появились поисковые системы Lycos и AltaVista. Последняя
долгие годы была лидером в области поиска информации в Интернет.
В 1997 году Сергей Брин и Ларри Пейдж создали Google в рамках
исследовательского проекта в Стэнфордском университете. В настоящий
момент Google самая популярная поисковая система в мире.
23 сентября 1997 года была официально анонсирована поисковая система
Yandex, самая популярная в русскоязычной части Интернет.
В настоящее время существует 3 основных международных поисковых
системы – Google, Yahoo и MSN Search, имеющих собственные базы и
алгоритмы поиска. Большинство остальных поисковых систем (коих можно
насчитать очень много) использует в том или ином виде результаты 3
перечисленных. Например, поиск AOL (search.aol.com) и Mail.ru
используют базу Google, а AltaVista, Lycos и AllTheWeb – базу Yahoo.
В России основной поисковой системой является Яндекс, за ним идут Rambler, Google.ru, Aport, Mail.ru и KM.ru.
1.2 Общие принципы работы поисковых систем
Поисковая система состоит из следующих основных компонентов:
Spider (паук) - браузероподобная программа, которая скачивает веб-страницы.
Crawler (краулер, «путешествующий» паук) – программа, которая автоматически проходит по всем ссылкам, найденным на странице.
Indexer (индексатор) - программа, которая анализирует веб-страницы, скаченные пауками.
Database (база данных) – хранилище скачанных и обработанных страниц.
Search engine results engine (система выдачи результатов) – извлекает результаты поиска из базы данных.
Web server (веб-сервер) – веб-сервер, который осуществляет взаимодействие между пользователем и остальными компонентами поисковой системы.
Детальная реализация поисковых механизмов может отличаться друг от
друга (например, связка Spider+Crawler+Indexer может быть выполнена в
виде единой программы, которая скачивает известные веб-страницы,
анализирует их и ищет по ссылкам новые ресурсы), однако всем поисковым
системам присущи описанные общие черты.
Spider.
Паук - это программа, которая скачивает веб-страницы тем же способом,
что и браузер пользователя. Отличие состоит в том, что браузер
отображает информацию, содержащуюся на странице (текстовую, графическую
и т.д.), паук же не имеет никаких визуальных компонент и работает
напрямую с html-текстом страницы (вы можете сделать «просмотр
html-кода» в вашем браузере, чтобы увидеть «сырой» html-текст).
Crawler.
Выделяет все ссылки, присутствующие на странице. Его задача -
определить, куда дальше должен идти паук, основываясь на ссылках или
исходя из заранее заданного списка адресов. Краулер, следуя по
найденным ссылкам, осуществляет поиск новых документов, еще неизвестных
поисковой системе.
Indexer. Индексатор разбирает
страницу на составные части и анализирует их. Выделяются и
анализируются различные элементы страницы, такие как текст, заголовки,
структурные и стилевые особенности, специальные служебные html-теги и
т.д.
Database. База данных - это хранилище всех
данных, которые поисковая система скачивает и анализирует. Иногда базу
данных называют индексом поисковой системы.
Search Engine Results Engine.
Система выдачи результатов занимается ранжированием страниц. Она
решает, какие страницы удовлетворяют запросу пользователя, и в каком
порядке они должны быть отсортированы. Это происходит согласно
алгоритмам ранжирования поисковой системы. Эта информация является
наиболее ценной и интересной для нас – именно с этим компонентом
поисковой системы взаимодействует оптимизатор, пытаясь улучшить позиции
сайта в выдаче, поэтому в дальнейшем мы подробно рассмотрим все
факторы, влияющие на ранжирование результатов.
Web server.
Как правило, на сервере присутствует html-страница с полем ввода, в
котором пользователь может задать интересующий его поисковый термин.
Веб-сервер также отвечает за выдачу результатов пользователю в виде
html-страницы.
Автор: uMaster Получить ссылку
В новом окне Просмотров:[483]Добавлено:29.12.2009 Подробнее