Robots.txt禁用例外情况下的查询参数扫描

问题描述 投票:0回答:1

我正在执行一些SEO更改,包括robots.txt更改,并且正在解决此问题。

我需要禁用(或确切地说是不允许)包含某些查询URL参数的每个URL(?xy = ...)所以我添加了此规则

Disallow: /*?*

但是有一个小问题。我需要为特定的子URL允许特定的查询参数。所以可以说我需要允许/ picture?path = XY。此应该允许,但是例如/ picture-other?path = XY not,例如/ picture?other_param = XY只是参数命名路径)

是否可以在robots.txt中执行此操作?

编辑:(也许添加了更清晰的说明)

禁用所有包含查询参数的URL(如/ x?param = 1),但允许URL /图片上的查询参数路径。因此,只有一个允许的带有查询参数的URL为/ picture?path = XY,没有其他包含查询参数的URL将被机器人允许使用]

示例

允许

/picture?path=XY
/literally/any/route/without/query/param/you/can/imagine
/home
/

现在允许

/picture?param=1
literally/any/route/with/query/param/you/can/imagine?param=1
/some/other/url?query=5&param=1
/some/other/route/with/path/param?path=XY
regex seo robots.txt
1个回答
0
投票

您提供的不允许的路径

/picture?param=1
literally/any/route/with/query/param/you/can/imagine?param=1
/some/other/url?query=5&param=1
/some/other/route/with/path/param?path=XY

机器人:

Disallow: /picture?param=*
Disallow: *param=*
© www.soinside.com 2019 - 2024. All rights reserved.