robots.txt中的用户代理顺序



我的robots.txt看起来像这样:

User-agent: *
Disallow: /admin
Disallow: /test
User-Agent: Googlebot
Disallow: /maps

现在,Google忽略了用户代理 *部分,仅遵守特定的Googlebot指令(/MAP)。这种正常行为是否也不应该遵守Useragent *指令(/admin,/test)?

必须为每条用户添加每一行似乎很奇怪?

没关系,Google指出:

robots.txt文件中的每个部分都是独立的,不构建 在以前的部分。例如:

用户代理: * disallows:/folder1/

用户代理:Googlebot disallobal:/folder2/

在此示例中,只有URL匹配/folder2/不允许 对于Googlebot。

最新更新