Самое лучшее решение – это разработка комплекса мер – система доступов для работы с сайтом, постоянно-периодическая смена паролей и антивирусных программ. Выполняя все вышеперечисленные меры вы обезопасите себя и свой сайт от большинства вирусных угроз, а соответственно избавите себя от проблем с посетителями и поисковыми системами.
Лучше всего обезопасить себя до того, как «грянет гром», чем разгребать последствия.
Резервная копия сайта
Зачем создавать резервную копию сайта, надеюсь, объяснять не нужно. То, что делать ее лучше после каждого нового размещения материала, а также перед большими или значительными обновлениями, тоже, думаю понятно. Давайте перейдем непосредственно к самому процессу.
Способы сохранения резервных копий
1. Самое простейшее – это в самой системе Worpress
Все просто – заходите в админку сайта, выбираете инструменты – > экспорт (смотрите скриншот), далее ставите галочку «все содержимое» и скачиваете файл, который можно потом развернуть на другом сайте под управлением вордпресс. Один минус данного метода – он копирует только текст. А все картинки и любой контент сохраняются в виде ссылок на исходники. То есть данный метод отлично подходит для сохранени уникального текста, но не для резервной копии сайта целиком.
2. Полная резервная копия сайта
Покажу на примере своего хостинга (где у меня располагается сайт) http://www.red-nuts.com/reg.12
Заходите в управление хостингом, далее в менеджер файлов и в папку www, откуда далее скачиваем к себе на компьютер папку с сайтом. Скачается в итоге архив с разрешением *tgz.
Практически каждый хостинг автоматически сохраняет копию сайта в определенный период. Чем мне нравится http://www.red-nuts.com/reg13
Но и этот метод использую, на случай, если на компе все вдруг тю-тю. В общем, я как тот чукча из анекдота с двумя билетами и проездным))) В таком деле, да еще когда у тебя материалов огромное количество за пару лет скопилось на сайте – лучше перебдеть, чем недобдеть, на мой взгляд =)
Второй способ еще проще – ничего никуда скачивать не нужно – все есть на сервере хостера. Заходите и формируете копию и скачиваете или сразу востанавливаете с нужной даты. Смотрите скриншоты =)
Как видите, все довольно просто и занимает немного времени, зато данная процедура при регулярном пользовании может сэкономит вам кучу времени и нервов в случае какого либо сбоя в системе.
Robots TXT
Продолжаем настраивать наш сайт!
Для того, чтобы ваш сайт правильно индексировался и поисковые системы брали только нужную информацию (ну к примеру зачем им ваши данные админки или служебных файлов? – я тоже думаю ни к чему) необходимо создать файл robots. txt и загрузить его в корневую папку сайта.
Как вы уже наверняка догадались файл является неким указателем или инструкцией для поисковых роботов. Словно карта, он указывает – куда ходить и что индексировать можно, а куда поисковым роботам ходить не нужно.
Сам файл не влияет на ранжирование (поисковую выдачу) сайта, поэтому многие принебрегают им и не запариваются с установкой вовсе. В какой то степени – не очень обдуманно, раскажу чуть подробнее.
Это достаточно мощный инструмент, с помощью которого можно, к примеру, вообще целиком запретить индексацию вашего интернет ресурса, можно частично, можно ограничить круг поисковиков и одним разрешить, другим запретить индексацию сайта или отдельных его страниц. Очень полезен данный инструмент также и во время реконструкции или переделки сайта, когда вы на время можете запретить индексацию.
Более того, файл роботс останавливает и некоторые виды спам роботов, которые сканируют сайт на предмет наличия и последующего сбора электронных адресов в целях последующего их использования для спама. Ну и конечно же, от поисковых машин с помощью этого инструмента можно также легко скрыть разделы сайта, предназначенные для определенного круга пользователей – то есть страницы «не для всех» с приватной и закрытой от общего доступа информацией.
О том, каким образом правильно сделать и настроить данный файл мы и поговорим кратко в данной публикации.
Вообще robots достаточно просто написать вручную без каких либо конструкторов, которых к слову по интернету море. Весь процесс сводится к прописыванию спецкоманд в обычном файле блокнота. Потом этот файл сохраняем под именем robots и закачиваем в корень нашего сайта. В итоге он должен быть у нас по адресу ваш-сайт.ru /robots. txt
Сам файл я подготовил для вас, поэтому изобретать велосипед вам не нужно – просто слова» «ваш-сайт.ru в этом файле нужно заменить на адрес вашего сайта (без www и http://). Взять готовый файл и залить к себе на сервер можете здесь: http://red-nuts.com/sitedj/robots.txt