, поэтому у меня есть один url, chickens.com/hatching
, который имеет потенциальные строки запросов, которые он может индексировать, то есть chickens.com/hatching?type=fast
. Я определенно хотел бы сохранить базовый url, chickens.com/hatching
индексированный, но без параметров запроса. Я бы хотел, чтобы параметры запроса были проиндексированы на других страницах, а не этот, так что для всех страниц не будет работать. Во-вторых, я переписываю URL-адреса, чтобы удалить трейлинг-косые черты, будет ли это уловка chickens.com/hatching/?type=fast
, а также chickens.com/hatching?type=fast
??Запретить строки запроса в файле robots.txt только для одного URL
Означает ли это, что это решение моей проблемы?
Disallow: /hatching?*
Я слышал, что это работает только для Google гусениц ... есть ли более надежное решение для всех сканеров?
Спасибо за помощь! Это очень ценно.
Использование канонических тегов https://support.google.com/webmasters/answer/139066?hl=ru – user29671