我将媒体放在AWS s3上,并设置了具有简短名称的CloudFront以获取图像资源。
例如:1.我的域名是:https://example.com2. cloudFront是:https://cdn.example.com->示例资源:https://cdn.example.com/sample.jpg
和robots.txt文件:1. https://example.com/robots.txt
Sitemap: https://example.com/sitemap.xml
User-agent: *
Disallow: /cart
User-agent: adsbot-google
Crawl-delay: 1
但是当我使用Google Search Console测试索引时,它会提醒我:允许爬网吗? -> 否:被机器人阻止页面提取-> 失败:被robots.txt阻止
如何为CloudFront设置允许Facebook,Google bot爬虫?请帮助我解决此问题。
谢谢!
我和你有同样的问题。我的域名是https://asset.onyourmarkhk.com。我添加了robots.txt以允许所有操作,但Google仍显示与您相同的错误消息。