Как известно, robots.txt помогает избежать индексирования определенных веб-страниц/секций веб-роботами/роботами. Но при использовании этого метода существуют определенные недостатки: 1. веб-сканеры могут не слушать файл robots.txt; 2. вы раскрываете папки, которые вы хотите защитить всем;Как заблокировать роботы без robots.txt
Существует еще один способ блокировки папок, которые вы хотите защитить от сканеров? Имейте в виду, что эти папки могут быть доступны из браузера (например,/admin).
Я, хотя о создании белого списка с пользовательскими агентами, но грязный, и некоторые новые пользовательские агенты могут быть запрещены. какое-то другое решение ??? – machineaddict