Читаем SEO для Чайников полностью

На некоторых сайтах принято использовать идентификатор сессии – то есть каждый посетитель при заходе на сайт получает уникальный параметр &session_id=, который добавляется к адресу каждой посещаемой страницы сайта.

Использование идентификатора сессии позволяет более удобно собирать статистику о поведении посетителей сайта и может использоваться для некоторых других целей.

Однако, с точки зрения поискового робота страница с новым адресом – это новая страница. При каждом заходе на сайт поисковый робот будет получать новый идентификатор сессии и, посещая те же самые страницы, что и раньше, будет воспринимать их как новые страницы сайта.

Строго говоря, поисковые системы имеют алгоритмы «склейки» зеркал и страниц с одинаковым содержанием, поэтому сайты, использующие идентификаторы сессий, все же будут проиндексированы. Однако, индексация таких сайтов затруднена и в некоторых случаях может пройти некорректно. Поэтому использование на сайте идентификаторов сессий не рекомендуется.

Долгое время ответа сервера

Если в результате технических неполадок на сервере невозможно получить тело документа за некоторый период времени, то это может привести к проседанию позиций в выдаче. Сам Яндекс подтверждает тот факт, что если его робот не смог скачать определенную страницу, эта страница может временно вообще пропасть из результатов поиска.

Относительно поисковых машин, медленные веб-сайты всегда размещены ниже по рангу, нежели те, которые быстро загружаются. Быстрая загрузка ведет к хорошим рейтингам в поисковых системах.

Скорость загрузки веб-страницы напрямую зависит от скорости соединения, времени ответа сервера, а также веса всей страницы и содержимого. Последние опросы говорят нам о том, что среднестатистический пользователь обычно ждет не более 4 секунд, пока загрузится страница.

Причины медленной загрузки страниц также заключаются в количестве HTTP-запросов, некомпрессованном javascript, использование загруженного сервера, который не может предоставить требуемую пропускную способность, а также использование большого количества изображений и flash-элементов, которые требуется подгрузить.

Отсутствуют файлы robots.txt и sitemap.xml

Эти файлы предназначены для указания параметров индексирования роботам поисковых систем. В файле robots.txt содержатся инструкции по индексации. С помощью этого файла можно указать страницы, которые не должны попасть в индекс поисковых систем. Понятно, что ни в коем случае нельзя закрывать индексацию для целевых страниц. Однако необходимо закрыть доступ для роботов к страницам, которых не должно быть в индексе поисковых систем.

Еще один файл служебный файл, который также играет не последнюю роль при индексации сайта. Это файл sitemap.xml. Он представляет собой карту сайта, где перечислены все его страницы. Именно sitemap.xml используют поисковые системы, чтобы ничего не упустить при индексации. Бывают ситуации, когда даже при правильных настройках robots.txt за пределами базы данных поисковика оказывается часть страниц. В таких случаях и помогает карта сайта.

На сайте не установлен сервис статистики

Сервисы статистики собирают информацию о посещаемости сайта. Крайне важно указать код счетчиков при составлении первичных правок по технической оптимизации сайта и проверить его внесение, иначе сбор данных о посещаемости/поведении пользователей на сайте производиться не будет.

Сайта нет в панели вебмастера Яндекса/ Google

Для осуществления контроля основных показателей сайта, а также его геопривязки, индексирования и пр. необходимо добавление сайта в панели вебмастеров. Важно указать в рекомендациях мета-тег, необходимый для подтверждения наличия сайта в панели вебмастеров, и проверить его наличие после внесения правок.

Отсутствие на сайте дублированного меню в виде текстовых ссылок в случае существования на сайте основного меню в виде flash/java script

При наличие на сайте основного меню в виде flash/java script и отсутствия дублированного меню в виде текстовых ссылок заданная через скрипт ссылка будет недоступна для поисковой системы и поисковый робот не пройдет по ней.

В таких случаях следует обязательно дублировать ссылки обычным способом, чтобы навигация по сайту была доступна для всех – и для ваших посетителей и для роботов поисковых систем.

3. Ошибки в привязке сайта к региону

Перейти на страницу:

Похожие книги

Компьютерные сети. 6-е изд.
Компьютерные сети. 6-е изд.

Перед вами шестое издание самой авторитетной книги по современным сетевым технологиям, написанное признанным экспертом Эндрю Таненбаумом в соавторстве со специалистом компании Google Дэвидом Уэзероллом и профессором Чикагского университета Ником Фимстером. Первая версия этого классического труда появилась на свет в далеком 1980 году, и с тех пор каждое издание книги неизменно становилось бестселлером. В книге последовательно изложены основные концепции, определяющие современное состояние компьютерных сетей и тенденции их развития. Авторы подробно объясняют устройство и принципы работы аппаратного и программного обеспечения, рассматривают все аспекты и уровни организации сетей — от физического до прикладного. Изложение теоретических принципов дополняется яркими, показательными примерами функционирования интернета и компьютерных сетей различного типа. Большое внимание уделяется сетевой безопасности. Шестое издание полностью переработано с учетом изменений, произошедших в сфере сетевых технологий за последние годы, и, в частности, освещает такие технологии, как DOCSIS, 4G и 5G, беспроводные сети стандарта 802.11ax, 100-гигабитные сети Ethernet, интернет вещей, современные транспортные протоколы CUBIC TCP, QUIC и BBR, программно-конфигурируемые сети и многое другое.

Дэвид Уэзеролл , Ник Фимстер , Эндрю Таненбаум

Учебные пособия, самоучители