我的robots.txt看起来像这样:
User-agent: *
Disallow: /admin
Disallow: /test
User-Agent: Googlebot
Disallow: /maps
现在,Google忽略了用户代理 *部分,仅遵守特定的Googlebot指令(/MAP)。这种正常行为是否也不应该遵守Useragent *指令(/admin,/test)?
必须为每条用户添加每一行似乎很奇怪?
没关系,Google指出:
robots.txt文件中的每个部分都是独立的,不构建 在以前的部分。例如:
用户代理: * disallows:/folder1/
用户代理:Googlebot disallobal:/folder2/
在此示例中,只有URL匹配/folder2/不允许 对于Googlebot。