На некоторых сайтах принято использовать идентификатор сессии – то есть каждый посетитель при заходе на сайт получает уникальный параметр &session_id=, который добавляется к адресу каждой посещаемой страницы сайта.
Использование идентификатора сессии позволяет более удобно собирать статистику о поведении посетителей сайта и может использоваться для некоторых других целей.
Однако, с точки зрения поискового робота страница с новым адресом – это новая страница. При каждом заходе на сайт поисковый робот будет получать новый идентификатор сессии и, посещая те же самые страницы, что и раньше, будет воспринимать их как новые страницы сайта.
Строго говоря, поисковые системы имеют алгоритмы «склейки» зеркал и страниц с одинаковым содержанием, поэтому сайты, использующие идентификаторы сессий, все же будут проиндексированы. Однако, индексация таких сайтов затруднена и в некоторых случаях может пройти некорректно. Поэтому использование на сайте идентификаторов сессий не рекомендуется.
Долгое время ответа сервера
Относительно поисковых машин, медленные веб-сайты всегда размещены ниже по рангу, нежели те, которые быстро загружаются. Быстрая загрузка ведет к хорошим рейтингам в поисковых системах.
Скорость загрузки веб-страницы напрямую зависит от скорости соединения, времени ответа сервера, а также веса всей страницы и содержимого. Последние опросы говорят нам о том, что среднестатистический пользователь обычно ждет не более 4 секунд, пока загрузится страница.
Причины медленной загрузки страниц также заключаются в количестве HTTP-запросов, некомпрессованном javascript, использование загруженного сервера, который не может предоставить требуемую пропускную способность, а также использование большого количества изображений и flash-элементов, которые требуется подгрузить.
Отсутствуют файлы robots.txt и sitemap.xml
Эти файлы предназначены для указания параметров индексирования роботам поисковых систем. В файле robots.txt содержатся инструкции по индексации. С помощью этого файла можно указать страницы, которые не должны попасть в индекс поисковых систем. Понятно, что ни в коем случае нельзя закрывать индексацию для целевых страниц. Однако необходимо закрыть доступ для роботов к страницам, которых не должно быть в индексе поисковых систем.
Еще один файл служебный файл, который также играет не последнюю роль при индексации сайта. Это файл sitemap.xml. Он представляет собой карту сайта, где перечислены все его страницы. Именно sitemap.xml используют поисковые системы, чтобы ничего не упустить при индексации. Бывают ситуации, когда даже при правильных настройках robots.txt за пределами базы данных поисковика оказывается часть страниц. В таких случаях и помогает карта сайта.
На сайте не установлен сервис статистики
Сервисы статистики собирают информацию о посещаемости сайта. Крайне важно указать код счетчиков при составлении первичных правок по технической оптимизации сайта и проверить его внесение, иначе сбор данных о посещаемости/поведении пользователей на сайте производиться не будет.
Сайта нет в панели вебмастера Яндекса/ Google
Для осуществления контроля основных показателей сайта, а также его геопривязки, индексирования и пр. необходимо добавление сайта в панели вебмастеров. Важно указать в рекомендациях мета-тег, необходимый для подтверждения наличия сайта в панели вебмастеров, и проверить его наличие после внесения правок.
Отсутствие на сайте дублированного меню в виде текстовых ссылок в случае существования на сайте основного меню в виде flash/java script
При наличие на сайте основного меню в виде flash/java script и отсутствия дублированного меню в виде текстовых ссылок заданная через скрипт ссылка будет недоступна для поисковой системы и поисковый робот не пройдет по ней.
В таких случаях следует обязательно дублировать ссылки обычным способом, чтобы навигация по сайту была доступна для всех – и для ваших посетителей и для роботов поисковых систем.
3. Ошибки в привязке сайта к региону