🕷 搜索引擎蜘蛛设置

为每个搜索引擎蜘蛛单独设置抓取权限,默认全部允许。

所有蜘蛛 (*)

*

百度蜘蛛

Baiduspider

谷歌蜘蛛

Googlebot

必应蜘蛛

Bingbot

搜狗蜘蛛

Sogou web spider

360 蜘蛛

360Spider

神马蜘蛛

Yisouspider
🚫 禁止抓取目录设置

每行一个路径,自动去重并补全开头的「/」。

常用示例(点击添加):
/admin/
/api/
/uploads/
/temp/
/private/
/login/
/cgi-bin/

📄 生成结果预览

核心语法

robots.txt 是放置在网站根目录下(如 https://example.com/robots.txt)的纯文本文件,用于告诉搜索引擎哪些路径可以抓取、哪些不可以。

  • User-agent: 指定规则作用的蜘蛛名称,* 表示所有蜘蛛。
  • Disallow: 禁止抓取的路径,/ 表示整站禁止;为空表示不禁止。
  • Allow: 显式允许抓取的路径,常与 Disallow 配合使用。
  • Sitemap: 站点地图完整 URL,可放在文件任意位置。
格式规范
  • 每个规则块以 User-agent 开头,后跟若干条 Disallow / Allow。
  • 规则块之间用空行分隔。
  • 路径区分大小写,需以 / 开头。
  • # 开头的行为注释。
常见示例
# 全站允许所有蜘蛛
User-agent: *
Allow: /
Disallow:

# 禁止所有蜘蛛抓取
User-agent: *
Disallow: /

# 仅允许谷歌,其它蜘蛛禁止
User-agent: Googlebot
Allow: /

User-agent: *
Disallow: /
注意事项
  • robots.txt 只是"君子协议",恶意爬虫可能不遵守,敏感内容请用鉴权保护。
  • 不要把 robots.txt 当成隐藏内容的手段,它本身是公开的。
  • 文件必须命名为 robots.txt(全小写),放在站点根目录。
  • 修改后可能需要等待搜索引擎重新抓取才会生效。

关于 Robots.txt 生成器

robots.txt 可视化生成器:内置常见搜索引擎蜘蛛,逐个勾选「允许 / 禁止」抓取,配合禁止目录与 Sitemap 即可一键生成标准 robots.txt 并复制使用。

使用步骤

  1. 在「搜索引擎蜘蛛」区域,为每个蜘蛛单选「允许抓取」或「禁止抓取」。
  2. 在「禁止抓取目录」文本框中按行输入路径(如 /admin/),或点击下方示例标签一键添加。
  3. (可选)在 Sitemap 字段填写站点地图完整 URL。
  4. 点击「生成 robots.txt」按钮,右侧预览区会显示带语法高亮的结果。
  5. 点击「复制内容」按钮即可复制到剪贴板,直接放到网站根目录使用。

常见使用场景

  • 网站 SEO 抓取规则配置
  • 针对部分蜘蛛开放 / 屏蔽抓取
  • 快速生成标准格式 robots.txt