Фильтры Google: Panda и Penguin

Уже неоднократно говорилось о том, что сайт, который не продвигается, не будет приносить прибыль. Ресурс просто затеряется в просторах Глобальной сети, а его владелец тщетно будет ждать притока посетителей. Так и не дождавшись столь желаемого наплыва клиентов и роста заказов, он, скорее всего, все же обратиться в компанию, специализирующуюся на продвижении сайтов. После заключения договора, к работе приступают оптимизаторы.

 

Для того чтобы разрабатывать стратегию поискового продвижения сайта, составлять технические задания и выполнять прочие действия, помогающие сайту занять лучшие позиции в поисковой выдаче и улучшить посещаемость, SEO-оптимизатор должен знать принципы ранжирования и фильтры поисковых систем.

 

Главная сложность заключается в том, что алгоритмы работы поисковых роботов регулярно видоизменяются, появляются новые значимые факторы, а те, которые прежде считались наиболее ценными при ранжировании, теряют свои позиции. SEO-оптимизатор должен постоянно следить за тенденциями поисковых систем и подстраивать стратегию продвижения под изменяющиеся условиях среды.

 

 Фильтры Google


«Умные» поисковые роботы способны определить некачественные страницы сайта и наложить на них фильтр. Основными фильтрами Google являются: Panda и Penguin. Ознакомимся с ними подробнее. Гугл Пингвин зародился в апреле 2012 года. Первый апдейт пришел спустя месяц. Его итогом стало: падение позиций большинства сайтов. Главная задача Google Penguin - аналогична функциям других алгоритмов и фильтров - очистка поисковой системы от некачественных ресурсов.

 

Google Penguin «наказывает» за:

  • Использование копипаста
  • Перегруженность ключами для внутренних и внешних ссылок
  • Точное совпадение доменов с продвигаемыми ключами
  • Спам в каталогах, бессмысленные статьи, пересыщенные ключами
  • Переоптимизация страниц - чрезмерно много ключей

 

Пингвин глубоко сканирует ресурс, подробно разбираясь в том, насколько качественно он заполнен. Также, данный фильтр Google способен определять объемы рекламы на главной странице и если ее чрезмерно много - сайт непременно потеряет позиции в выдаче.

 

Google Panda появился тоже весной, но только на год раньше - в 2011. Данный фильтр наделал немало шума. Результаты поиска после запуска фильтра мгновенно преобразились. Некоторые  изменения были кардинальными: бывшие лидеры стали аутсайдерами, а расположенные в конце выдачи сайты вышли вперед. Всего несколько апдейтов - и выдачу просто невозможно узнать.

 

Попасть под Панду можно по следующим причинам:

  • Страницы с маленьким количеством контента
  • Копипаст
  • Материал, не несущий смысловой нагрузки
  • Много рекламы
  • Переоптимизированный контент

 

Специалисты Google постоянно совершенствуют Панду, делая фильтр еще более «строгим» и объективным. Предугадать его поведение - невозможно, поэтому оптимизаторам остается только ждать сюрпризов и стараться создавать сайты для людей, а не роботов. Такая схема поисковой оптимизации сайтов никогда не вызовет нареканий Панды.

 

Конечно, Panda и Penguin - не единственные фильтры Google. Существует множество других, которые могут анализировать меньшее количество факторов, но делать это более досконально. С каждым годом «обмануть» поисковые системы становится все более сложно. Оптимизаторам, использующим «белые» методы продвижения такая тенденция только на руку, ведь теперь им не придется соперничать с ресурсами, попадающими в ТОП с помощью «черных» методов. Формируется здоровая конкуренция, в которой стать лидерами могут исключительно сайты, ориентированные на людей.

Заявка отправлена!
Рейтинг@Mail.ru Участник проекта CMS Magazine