2015-03-11 6 views
0

Я должен сделать файл robots.txt для двух разных сайтов, но они оба находятся в одном корневом каталоге.Robots.txt для двух отдельных веб-сайтов, которые разделяют один и тот же корень

Они такие же разные, как google.com и yahoo.com, но оба они привязаны к одному и тому же месту, поэтому одно изменение влияет на обоих. Если вы ищете решение для создания одного файла роботов для обоих доменов, любая помощь будет принята с благодарностью.

Найдено этот другой ресурс, но я не уверен, если он будет применяться: Robots.txt for multiple domains

+0

Он будет работать, если вы можете использовать переписывание модема apache. Если это динамический сайт, вы также можете маршрутизировать запрос для robots.txt на robots.jsp (например). –

+0

Как я могу это сделать? Спасибо. –

+1

Вы используете веб-сервер Apache? –

ответ

0

Решение, данное в ссылке, которую вы упомянули, безусловно, работать. Я использую ту же установку на сервере nginx. В качестве альтернативы я, хотя я мог бы также попытаться добавить домен в robots.txt file.Like:

Disallow: domain1.com/path/to/disallow 
Disallow: domain2.com/path/to/disallow 

Но я не уверен на 100%, если это будет работать.

Смежные вопросы