Термин SEO расшифровывается как Search Engine Optimization – «оптимизация для поисковых систем». Некоторое время назад написание текстов в понятном для поисковых систем формате было весьма распространенным бизнесом: напичканные ключевыми словами, такие страницы оказывались на высоких позициях в поисковой выдаче, радуя заказчиков-рекламодателей. Однако подобные тексты отличались одним существенным недостатком: они не предназначались для простых читателей. Для посетителя сайта эти SEO-опимизированные статьи зачастую выглядели как случайный набор слов, лишенный всякого смысла. Некогда среди пользователей Интернета ходил анекдот о SEO-копирайтере в баре, заказавшем
Целью написания такой белиберды было накопление объема внешних ссылок, для чего использовалась, как правило, массовая публикация содержащего ссылку текста по различным веб-сайтам, имеющим подходящие характеристики и индексы цитируемости. Позже поисковые системы научились бороться с подобным поисковым спамом благодаря использованию всевозможных контентных фильтров. В некоторых случаях такой метод продвижения приводит даже не к росту посещаемости, а наоборот, к пессимизации рекламируемого проекта поисковыми системами: если поисковая машина фиксирует появление огромного числа однотипных ссылок на какой-либо ресурс, снабженных идентичным текстовым окружением, рейтинг этого ресурса может быть значительно понижен. Генерировать бессмысленные массивы ключевых слов с рекламными ссылками стало невыгодно.
Тем не менее, SEO-копирайтинг – то есть написание осмысленных статей с заданным набором слов, отвечающих семантическому ядру сайта, – до сих пор востребован. Только задача коммерческих писателей заметно усложнилась: создаваемые ими тексты должны теперь быть интересны простому читателю и в то же время отвечать критериям поисковых систем, прежде всего – релевантности запросам. Давайте поговорим о том, что это такое, и вообще попытаемся разобраться, как работают современные поисковики.
Создав и опубликовав в Интернете какой-либо веб-сайт, разработчик обычно регистрирует его адрес в поисковой системе, иными словами – вносит URL этого ресурса в специально предназначенное для данных целей поле на сервере поисковой системы. Вслед за этим специальная программа поисковой машины, называемая роботом или спайдером (от англ. spider – «паук»), посещает указанный при регистрации сайт, просматривает его, проходит по всем обнаруженным на нем гиперссылкам и вносит информацию о найденных страницах в базу данных поисковой системы, которая называется индексом. Этот процесс, в свою очередь, носит наименование индексации.
Обычно индекс поискового сервера включает лишь адреса веб-страниц и краткую «аннотацию», поясняющую их содержимое, почерпнутую из текста самих индексируемых документов, но нередко поисковые машины содержат также специальный кэш, где в течение определенного времени хранятся образцы загруженных с проиндексированного сайта страниц. Таким образом, даже если сам документ по каким-либо причинам уже перестал существовать, его копию можно попытаться получить из кэша поисковой системы. Спустя определенное время робот автоматически проводит переиндексацию, чтобы удалить из базы данных устаревшие и более недействительные ссылки и очистить неактуальное содержимое кэша.