找回密码
 立即注册
首页 资源区 问答 帮我写一个屏蔽openai 蜘蛛抓取的robots

帮我写一个屏蔽openai 蜘蛛抓取的robots

新程序 前天 14:30


  1. User-agent: GPTBot Disallow: /

  2. User-agent: ChatGPT-User Disallow: /
复制代码
在robots.txt文件中,User-agent: * 和 Disallow: 的组合有特定的含义:
  • User-agent: *: 这里的 * 是一个通配符,表示这条规则适用于所有网络爬虫(spiders 或 bots),除非后续有针对特定爬虫的更具体的规则覆盖它。换句话说,它是对所有未明确指定的爬虫设置一个默认规则。
  • Disallow:: 这一行指定爬虫不能访问的路径。如果 Disallow: 后面没有具体路径(即为空),表示允许爬虫访问网站上的所有内容。这是因为 Disallow 没有禁止任何具体路径,等同于“没有限制”。
综合含义
User-agent: * 搭配 Disallow: 的效果是:允许所有网络爬虫访问网站的全部内容。这是 robots.txt 中最宽松的配置,意味着没有对任何爬虫设置访问限制。

如果你想完全禁止所有爬虫访问整个网站,可以使用:

  1. User-agent: *
  2. Disallow: /
复制代码





相关推荐

您需要登录后才可以回帖 登录 | 立即注册