И именно в целях максимального удовлетворения запросов клиентов и происходят обновления в поисковой системе. Если разбирать детально, то делается это для того, чтобы улучшить выдачу и убрать из нее некачественные, по мнению самой поисковой системы, проекты. А еще для того, чтобы устранить ошибки, так называемые «глюки», накрутки выдачи…
Стоит сказать, что на сегодняшний день «поисковик» достаточно в этом преуспел, и те методы, которыми раньше можно было вывести сайт в ТОП буквально за три-четыре недели, на него сейчас уже не действуют. За это можно схлопотать или фильтр, или бан
Я думаю, что вам интересно, о каких именно «старых» методах оптимизации идёт речь – и почему их нельзя использовать сейчас. И я обязательно расскажу вам об этом.
Но не стану описывать классические и очевидные с логической точки зрения изменения –
Это будут вопросы, напрямую связанные с таким популярным нынче понятием, как
Почему нельзя брать тексты с других сайтов
Если мы обернемся в прошлое – взглянем на ситуацию, которая имела место быть, скажем, лет шесть назад – то увидим, что алгоритмы поисковых систем были не такими «умными», как сейчас, и их можно было обходить.
Возьмем ситуацию с текстами
Или другой вариант: можно было взять несколько статей с разных сайтов и объединить их в одну
И такой прием некогда срабатывал – поисковая система расценивала подобные тексты, как уникальные, и сайт поднимался в выдаче*.
Однако же, в целом, в прошлом имела место быть довольно нехорошая тенденция, а именно: каждый мог создать кучу сайтов с помощью текстов, заимствованных нечестным путем, а проще говоря, ворованных с других ресурсов.
Скажу больше: такие сайты делались автоматически, а потому те самые кристально честные вебмастера, которые писали тексты с нуля, находились в, мягко говоря, неловком положении: можно было корпеть, стараться, писать уникальный текст, а потом обнаружить, что его украли. Причем тот сайт, на котором разместился украденный текст, мог оказаться выше в выдаче, нежели сайт с первоисточником.
А что же сейчас?
А сейчас поисковая система ранжирует сайты с помощью фильтра, выявляющего уникальность/не уникальность текстов. Если выявляется, что сайт берет тексты с других сайтов и размещает их у себя, то он признается некачественным и частично либо полностью удаляется из поисковика. Правда, эти фильтры работают, увы, не идеально – и отсеивается плагиат не всегда.