2014-12-08 5 views
0

Я заметил, что мой сайт Google App Engine просканирован множеством ботов (таких как Baido и Ahrefs), и они едят всю мою пропускную способность и чтение данных ,Остановить ботов от обхода моего сайта Google App Engine

Я знаю только на обычном самообслуживаемом сайте, который бы поместил файл robots.txt в свою базовую папку, но как именно я могу сказать, что боты не сканируют мой сайт в Google App Engine? Я запускаю python и jinja 2, если это имеет значение.

спасибо.

ответ

3

ли это в app.yaml

- url: /robots.txt 
    static_files: static/robots.txt 
    upload: static/robots.txt 

Затем, до тех пор, пока у вас есть static/robots.txt в вашем проекте, вы хорошо идти.

+1

Спасибо. Просто добавьте (потому что это пошло не так для меня), это должно быть выше '- url: /.*', потому что в противном случае оно пропущено. –

+0

Dot (".") Должен быть экранирован с обратным слэшем в «url» и «upload», потому что они являются регулярными выражениями («- url: /robots\.txt static_files: static/robots.txt upload: static/robots \ .txt ") – Chris

+0

Технически, это правильно. И все же это вряд ли вызовет проблему в этом случае. В балансе здесь я с ясностью пересматриваю точность. –

Смежные вопросы