В настоящее время я работаю над приложением, созданным с помощью Express (Node.js), и я хочу знать, что является самым умным способом обработки различных файлов robots.txt для разных сред (разработка, производство).Каков самый умный способ обработки robots.txt в Express?
Это то, что я прямо сейчас, но я не уверен, решением, я думаю, что это грязно:
app.get '/robots.txt', (req, res) ->
res.set 'Content-Type', 'text/plain'
if app.settings.env == 'production'
res.send 'User-agent: *\nDisallow: /signin\nDisallow: /signup\nDisallow: /signout\nSitemap: /sitemap.xml'
else
res.send 'User-agent: *\nDisallow: /'
(NB: это CoffeeScript)
Там должно быть лучше путь. Как бы вы это сделали?
спасибо.
Разумеется, имеет смысл делать 'app.use ('/ robots.txt', function (req, res, next) {...});' и терять проверку 'req.url'. – c24w
@ c24w с экспрессом 4 да было бы. 'app.get' также будет работать. Я обновлю. Спасибо – SystemParadox
Ах, я думал, что это может быть новая функция API (я должен был проверить). 'app.get' еще лучше!:) – c24w