2012-05-02 3 views
1

Как известно, robots.txt помогает избежать индексирования определенных веб-страниц/секций веб-роботами/роботами. Но при использовании этого метода существуют определенные недостатки: 1. веб-сканеры могут не слушать файл robots.txt; 2. вы раскрываете папки, которые вы хотите защитить всем;Как заблокировать роботы без robots.txt

Существует еще один способ блокировки папок, которые вы хотите защитить от сканеров? Имейте в виду, что эти папки могут быть доступны из браузера (например,/admin).

ответ

2

Проверьте заголовок User-Agent на запросы и выдайте сообщение 403, если заголовок содержит имя робота. Это блокирует всех честных роботов, но не самых нечестных. Но опять же, если робот был действительно честным, он подчинялся бы robots.txt.

+0

Я, хотя о создании белого списка с пользовательскими агентами, но грязный, и некоторые новые пользовательские агенты могут быть запрещены. какое-то другое решение ??? – machineaddict

Смежные вопросы