禁止 robots.txt 中的所有分页页面

问题描述 投票:0回答:3

我不希望谷歌抓取我所有的分页:

这里是例子:

http://example.com/blog-page/page/1

http://example.com/blog-page/page/2

http://example.com/blog-page/page/3

好吧,我还有一些其他的分页页面,例如:

http://example.com/product-category/product/page/1

http://example.com/product-category/product/page/2

http://example.com/product-category/product/page/3

这是我的代码

robots.txt

User-agent:  *

Disallow: */page/*
wordpress robots.txt
3个回答
0
投票

我觉得应该是

User-agent: *
Disallow: /blog-page/page

多个 astricks 不是必需的,你必须确保包含整个路径,因为

/page
将是你网站的根目录


0
投票
User-agent:  *

Disallow: /blog-page/page/

您可以使用它来帮助您生成 robots.txt

http://tools.seobook.com/robots-txt/generator/


0
投票

User-Agent
Disallow
之间不能有空行。尾随的
*
是完全没有必要的,因为
Disallow
规则(包括通配符规则)都是“开始于”。

除此之外,您的

robots.txt
文件看起来会让搜索引擎无法分页。你可以用Google的工具测试一下:

© www.soinside.com 2019 - 2024. All rights reserved.