所以,我有一个使用 apache 运行 OpenSuse 的开发服务器。该服务器上有大量项目,其中一些有在线/实时对应项目。
每个项目都有一个单独的子域。
如何将 robots.txt 的所有请求重写为服务器范围内的一个“默认”文件?
我的目标是防止搜索机器人建立索引。
我相信没有比在每个
Alias
指令中设置VirtualHost
更简单的方法了:
Alias /robots.txt /home/path/to/generic/robots.txt
不过,我很高兴能够接受真正的全球解决方案的纠正。
我遇到了同样的问题,发现我可以将 Pekka 建议的 Alias 声明放置在 VirutalHost 指令之外的 httpd.conf 中,并且它适用于所有站点。