Оглавление:
Уже неоднократно говорилось о том, что сайт, который не продвигается, не будет приносить прибыль. Ресурс просто затеряется в просторах Глобальной сети, а его владелец тщетно будет ждать притока посетителей. Так и не дождавшись столь желаемого наплыва клиентов и роста заказов, он, скорее всего, все же обратиться в компанию, специализирующуюся на продвижении сайтов. После заключения договора, к работе приступают оптимизаторы.
Для того чтобы разрабатывать стратегию поискового продвижения сайта, составлять технические задания и выполнять прочие действия, помогающие сайту занять лучшие позиции в поисковой выдаче и улучшить посещаемость, SEO-оптимизатор должен знать принципы ранжирования и фильтры поисковых систем.
Главная сложность заключается в том, что алгоритмы работы поисковых роботов регулярно видоизменяются, появляются новые значимые факторы, а те, которые прежде считались наиболее ценными при ранжировании, теряют свои позиции. SEO-оптимизатор должен постоянно следить за тенденциями поисковых систем и подстраивать стратегию продвижения под изменяющиеся условиях среды.
«Умные» поисковые роботы способны определить некачественные страницы сайта и наложить на них фильтр. Основными фильтрами Google являются: Panda и Penguin. Ознакомимся с ними подробнее. Гугл Пингвин зародился в апреле 2012 года. Первый апдейт пришел спустя месяц. Его итогом стало: падение позиций большинства сайтов. Главная задача Google Penguin - аналогична функциям других алгоритмов и фильтров - очистка поисковой системы от некачественных ресурсов.
Google Penguin
«наказывает» за:
- Использование копипаста
- Перегруженность ключами для внутренних и внешних ссылок
- Точное совпадение доменов с продвигаемыми ключами
- Спам в каталогах, бессмысленные статьи, пересыщенные ключами
- Переоптимизация страниц - чрезмерно много ключей
Пингвин глубоко сканирует ресурс, подробно разбираясь в том, насколько качественно он заполнен. Также, данный фильтр Google способен определять объемы рекламы на главной странице и если ее чрезмерно много - сайт непременно потеряет позиции в выдаче.
Google Panda
Появился тоже весной, но только на год раньше - в 2011. Данный фильтр наделал немало шума. Результаты поиска после запуска фильтра мгновенно преобразились. Некоторые изменения были кардинальными: бывшие лидеры стали аутсайдерами, а расположенные в конце выдачи сайты вышли вперед. Всего несколько апдейтов - и выдачу просто невозможно узнать.
Попасть под Панду можно по следующим причинам:
- Страницы с маленьким количеством контента
- Копипаст
- Материал, не несущий смысловой нагрузки
- Много рекламы
- Переоптимизированный контент
Специалисты Google постоянно совершенствуют Панду, делая фильтр еще более «строгим» и объективным. Предугадать его поведение - невозможно, поэтому оптимизаторам остается только ждать сюрпризов и стараться создавать сайты для людей, а не роботов. Такая схема поисковой оптимизации сайтов никогда не вызовет нареканий Панды.
Конечно, Panda и Penguin - не единственные фильтры Google. Существует множество других, которые могут анализировать меньшее количество факторов, но делать это более досконально. С каждым годом «обмануть» поисковые системы становится все более сложно. Оптимизаторам, использующим «белые» методы продвижения такая тенденция только на руку, ведь теперь им не придется соперничать с ресурсами, попадающими в ТОП с помощью «черных» методов. Формируется здоровая конкуренция, в которой стать лидерами могут исключительно сайты, ориентированные на людей.
_________________________
Автор: Владимир Фомин (Digital Agency CASTCOM) / Дата публикации: 2017-05-25
уже сегодня!
Давайте работать вместе!
Отправьте нам заявку и мы свяжемся с вами, чтобы обсудить детали.
