Планируя создавать и продвигать сайт, необходимо знать о существовании фильтров поисковых систем, которые, по сути, являются алгоритмами очистки выдачи от некачественных сайтов. Некачественность сайтов определяется критериями отсева площадок поисковыми фильтрами. Под это определение могут попасть сайты, переборщившие с оптимизацией текстового контента, площадки, злоупотребляющие покупными ссылками и использующими дублированные тексты, а также ресурсы, нарушающие принципы прозрачного продвижения иными способами. Рассмотрим, как можно выявить действие фильтра и выйти из-под него с минимальными потерями. Перед продвижением сайта, необходимо его создать. Создание сайтов можно заказать в таких профессиональных студиях, как Salut Promo.
Одним из верных признаков того, что фильтры Яндекс и Google не обошли ваш сайт, является сокращение объёмов трафика. Поскольку основной трафик поступает с поисковых систем, то первая мысль, которая возникает при его уменьшении – это вероятное понижение позиций сайта в выдаче популярных поисковых систем. Многие фильтры Google и Яндекс практикую понижение рейтинга сайта в поисковиках, в результате чего происходит уменьшение релевантного трафика. Иногда признаком попадания под фильтры поисковиков является снижение индексации. В любом случае, какую бы форму не имели санкции поисковых систем, они всегда остаются карательными мерами, поэтому ничего приятного с собой не несут по определению. Например, если поисковик выявил нарушения того или иного характера и наказал провинившуюся площадку временным выбросом из индекса, то это может принести её существенную потерю трафика и доходности. Если речь идёт, к примеру, о раскрученном интернет магазине, то даже несколько дней отсутствия в выдаче могут обернуться печальными последствиями, а именно – площадка растеряет своих клиентов и понесёт огромные убытки. Если же сайт не исключён из выдачи, а показывается на несколько позиций ниже, то это также сильно может ударить по объёмам релевантного трафика.
Особенно болезненно данная ситуация переживается площадками, которые уже вошли в первую десятку неистовыми усилиями оптимизаторов. Попадание под фильтры вытесняет сайт из первой десятки выдачи, снова оставляя его без целевых посетителей, так как основной трафик достаётся именно сайтам, входящим в топ-10. Иными словами, фильтры поисковых систем всегда «учат» сайт методом кнута и пряника, чтобы в итоге пользователь мог получить более качественную выдачу в ответ на свой поисковой запрос. Действительно, существование фильтров поисковых систем дисциплинирует сетевые ресурсы, стимулируя их качественный рост и ориентацию на потребности пользователей, а не поисковых машин. Всё это повышает качественный уровень ресурсов, входящих в выдачу поисковых систем.
Итак, для того чтобы не попасть под фильтры Яндекс и Google, необходимо наполнять сайт качественным контентом, следить за юзабилити, использовать белые методы продвижения и не спешить поместить сайт в первую десятку выдачи. Однако если в каком-то из этих пунктов была допущена ошибка и сайт всё же попал под действие фильтров, то необходимо предпринять меры по снятию санкций поисковых систем. Для того чтобы вылечить сайт, нужно знать диагноз. Проявления попадания под все фильтры примерно одинаковы – это либо не попадание в индекс, либо снижение позиций в выдаче, либо частичная индексация. Поэтому определить с первого взгляда, под действие какого именно из фильтров (а их у поисковиков целый набор) попал сайт, практически невозможно.
Сделать это можно с помощью специальных сервисов для анализа сайтов, которые можно найти в сети. Такие сервисы показывают, какие нарушения допустили оптимизаторы при продвижении сайта, что привело его под фильтры. Самыми частыми причинами попадания под фильтры поисковых систем является использование дублированного контента и переоптимизация статей ключевыми выражениями. Дублированные текстовые материалы – это статьи, точные или примерные аналоги которых есть на других ресурсах сети. Вне зависимости от того, согласовано ли или нет использование материалов на двух площадках одновременно, роботы поисковых систем безапелляционно отправляют оба сайта под фильтры. Поэтому следует не только не размещать на площадке дублированные статьи, но и защищать собственный уникальный текстовый контент от несанкционированного копипаста, устанавливая защиту от копирования. Чтобы выйти из-под действия фильтра, борющегося с плагиатом в сети, необходимо провести полную проверку текстового контента сайта, выявить и устранить его дублированные элементы.
Совершенно не обязательно удалять не уникальные текстовые материалы – при определённой обработке их вполне можно использовать и далее. Для этого достаточно просто обратиться к профессиональному копирайтеру, который повысит уникальность текста без существенных изменений в его структуре и при полном сохранении тематики и стиля изложения материала.
По материалам с сайта Salut Promo. Продвижение сайтов.