Как лечить: остановить быструю покупку ссылок, писать в Яндекс, ждать снятия фильтра, можно ставить ссылки, но крайне медленно.
Сроки выхода из-под фильтра: от полугода
6) Фильтр за исходящие ссылки на некачественные ресурсы.
Данный фильтр накладывается на ресурсы, которые имеют множество исходящих ссылок на некачественные сайты. При работе мы убираем все подобные исходящие ссылки с продвигаемого сайта, а имеющиеся исходящие качественные ссылки закрываем в тег nofollow, чтобы больший вес передался тем внутренним страницам сайта, на которые стоят ссылки с этой страницы.
Симптомы: падение позиций сайта на 20-50 позиций.
За что накладывается: за исходящие ссылки на некачественные ресурсы.
Как лечить: убрать исходящие ссылки.
Сроки выхода из-под фильтра: несколько месяцев
7) Фильтр за входящие ссылки с некачественных ресурсов.
Продвигаемый сайт может быть пессимизирован в выдаче по причине некачественных входящих ссылок. Чаще всего, наличием подобных ссылок мы обязаны конкурентам, которые проставляют их, чтобы ухудшить позиции сайта. Для того, чтобы избежать наложения данного фильтра, нужно проводить постоянной мониторинг ссылочной массы и удалять покупные ссылки с некачественных ресурсов или писать владельцам сайтов, чтобы они удалили ссылку на наш продвигаемый ресурс.
Симптомы: стагнация сайта, возможно падение позиций, обнуление Тиц.
За что накладывается: за входящие ссылки с некачественных ресурсов.
Как лечить: убрать входящие ссылки.
Сроки выхода из-под фильтра: несколько месяцев.
ВАЖНО: здесь огромную роль играет соотношение качественных и некачественных ссылок. Если некачественных ссылок всего 5-20 %, то фильтрации не будет, если их больше, то возможна фильтрация. При 80-100 % некачественной ссылочной массы фильтрация будет точно.
8) АГС фильтр.
АГС — это фильтр, запрещающий индексацию неинформативных интернет-ресурсов, бесполезных для пользователя. Фильтр «АГС» исключает влияние таких сайтов на результаты ранжирования.
Под фильтр АГС чаще всего попадают сайты-сателлиты — сайты, созданные не для людей, а в качестве вспомогательных средств для продвижения основного ресурса. Они часто представляют собой несколько страниц со ссылками, ведущими на продвигаемый ресурс.
Пример действий по снятию фильтра:
Симптомы: часть страниц сайта выпадает из индекса, в поиске участвует от 1 до 10 страниц сайта, вне зависимости от их фактического количества, выпавшие страницы не запрещены к добавлению в специальную форму для индексации.
За что накладывается: за неуникальный контент, т.к. за дублирование контента как внутри сайта, так и с внешними ресурсами, наличие большого кол-ва малоконтентный страниц, спамных страниц (сгенерированный контент) и др, за исходящие ссылки на некачественные ресурсы можно проверить с помощью сервиса solomono.ru, который предоставляет подробную информацию по ссылкам).
Как лечить: убрать дубли с сайта, переписать неуникальный контент, наполнить сайт страницами с полезным контентом, улучшить структуру сайта.
Сроки выхода из-под фильтра: после внесения всех правок несколько месяцев.
9) Фильтр за похожие сниппеты.
Наложение данного фильтра можно заслужить в том случае, если у нескольких интернет ресурсов в поисковой выдаче по тому или иному запросу поисковик обнаружит идентичные до некоторой степени сниппеты. В таком случае показываться будет только один из них. Данный фильтр особо актуален для интернет магазинов и для описания к товарам, которые они зачастую просто копируют.
Пример: сайт, который находится с выдачей с “rd=0” на 8 позиции, отсутствует в обычной выдаче – это потому, что у него такой же сниппет, как у сайта 4 месте:
Симптомы: исчезает сайт из выдачи по запросу.
ВАЖНО: Есть параметр &rd=0 , который включает в выдачу "похожие результаты". Когда сайт исключается из выдачи за похожий сниппет, добавление этого параметра позволяет определить какой фрагмент текста нужно переписать (с добавлением параметра сайт возвращается в выдачу).
Как лечить: переписать сниппет
Сроки выхода из-под фильтра: несколько апдейтов.
III. Фильтры поисковой системы Google
Google стал одним из первых поисковиков, кто начал фильтровать сайты по самым различным критериям с целью специального понижения позиций некачественных ресурсов. Искусственно влияние на поисковую выдачу и применение вебмастерами различные ухищрений, недоработки существовавших поисковых алгоритмов – все это привело к довольно строгим мерам.