By eAndy on 01.01.2020
Posted in СЕО
Replies 2
Likes 0
Views 1.8K
Votes 0
Стал замечать, что мой сайт часто парсят конкуренты всяким софтом типа Netpeak Spider, XENU. Во время парсинга сайт практически «лежит», так как этот софт сильно грузит систему.

Решил закрыться от всяких ботов. Как это лучше реализовать — через .htaccess или robots.txt?
Возможно есть ещё какой-то вариант?

Файл .htaccess — это лучший вариант для скрытия сайта от ботов. В нём производятся сложные конфигурационные настройки, в том числе и блокировка по IP и User-agent.
·
около 5 лет назад
·
0 Likes
·
0 Votes
·
0 Comments
·
#91
Сделать Вы это можете следующими способами:

▫️ Вручную, прописав самостоятельно запрещающие настройки в файле. Но если Вы не обладаете специальными знаниями, то лучше доверьте эту работу программисту.

▫️ Через панель хостинга: многие хостеры дают возможность клиентам прописывать запреты для ботов через интерфейс. Вам нужно только определить какие именно IP и юзер-агенты блокировать.

Для этого проверьте какие боты создают наибольшую нагрузку на сайт через панель того же хостинга. Либо проведите глубокий анализ логов самостоятельно. Для анализа логов используйте Power BI. Подробная инструкция как анализировать логи с её помощью — https://eandy.ru/ssylki-na-servisy
·
около 5 лет назад
·
0 Likes
·
0 Votes
·
0 Comments
·
#92
View Full Post