Поисковые фильтры Яндекса: виды, как не попасть, как выйти

Ключевой принцип работы – сделать самое выгодное предложение по цене, качеству, сервису и ответственности за результат в интернет-маркетинге.

 

Все усилия по поисковому продвижению сайтов могут оказаться напрасными, если веб-ресурс попадет под действие фильтра со стороны поисковика. Любая поисковая система имеет набор фильтров, работающих по своим принципам, порой разительно отличающимся друг от друга. Не исключение и российский поисковый сервис Яндекс.


Зачем нужны фильтры

Владельцы поисковых машин строго следят за «чистотой» своего сервиса. На первых порах существования поисковиков можно было достаточно просто и быстро продвинуть в ТОП даже самый бестолковый проект, а порой и явно мошеннический. При этом ценность самих поисковиков стала быстро падать, наблюдался резкий спад трафика. Конечно, с таким положением дел никто мириться не хотел. В результате появились всевозможные фильтры, которые не выпускают «подозрительные» сайты в ТОП, а то и вовсе могут наложить бан.

Можно выделить следующие группы фильтров:

  • за излишнюю оптимизацию;
  • за плохую структуру;
  • за неуникальность;
  • за спам и тошнотность;
  • за подозрительную ссылочную массу.

Переоптимизация

Неопытные новички, которые недавно занимаются созданием и продвижением сайтов, могут перенасытить страницы ключами или начать слишком агрессивную рекламную компанию.

Как не попасть: не продвигать сайт слишком агрессивно и грамотно распределять ключи. Если же попадание произошло, следует «сбавить обороты» в кампании по продвижению и пересмотреть все страницы сайта на предмет перенасыщенности ключами, вплоть до полной пересборки семантического ядра.

Плохая структура ресурса

Если на сайте много дублирующихся или пустых страниц, а также страниц с одинаковыми заголовками, повторяющимися описаниями в тегах Keywords и Description, а то и вовсе наличие материала не по основной теме сайта – велика вероятность попадания под данный фильтр. Соответственно, если оно произошло, нужно удалить проблемные страницы или переделать их. Повторяющиеся можно исключить из поиска через robots.txt.

Спам-фильтр

Проявляется в том, что резко падают результаты по конкретным ключевым запросам. Чтобы этого избежать, нужно пересмотреть наличие ключей на проблемные запросы и оптимизировать их. Чаще всего это касается главной страницы и заголовков страниц. Не стоит также злоупотреблять точными вхождениями. Нередко такой фильтр называют «портяночным» - за объемные «портянки текста». Текст нужно разбивать и структурировать.

Избыточная ссылочная масса

Такие фильтры накладывают санкции, если на сайте подозрительно большая ссылочная масса. Одним из них является знаменитый Минусинск. Решение – избавиться от излишков ссылочной массы и делать внутренние ссылки более естественными.

Неуникальный контент

Ни один поисковик не любит плагиата. При наличии контента с низкой уникальностью пессимизация ресурса неизбежна. Решение напрашивается само собой: загружать на ресурс только уникальный контент.


Вернуться к списку