关于 Robots.txt 生成器
robots.txt 可视化生成器:内置常见搜索引擎蜘蛛,逐个勾选「允许 / 禁止」抓取,配合禁止目录与 Sitemap 即可一键生成标准 robots.txt 并复制使用。
使用步骤
- 在「搜索引擎蜘蛛」区域,为每个蜘蛛单选「允许抓取」或「禁止抓取」。
- 在「禁止抓取目录」文本框中按行输入路径(如 /admin/),或点击下方示例标签一键添加。
- (可选)在 Sitemap 字段填写站点地图完整 URL。
- 点击「生成 robots.txt」按钮,右侧预览区会显示带语法高亮的结果。
- 点击「复制内容」按钮即可复制到剪贴板,直接放到网站根目录使用。
常见使用场景
- 网站 SEO 抓取规则配置
- 针对部分蜘蛛开放 / 屏蔽抓取
- 快速生成标准格式 robots.txt
常见问题
Q:设置为「禁止抓取」是禁止全站还是某些目录?
A:蜘蛛设置「禁止抓取」会生成 Disallow: /(即全站禁止该蜘蛛抓取);如只想禁止部分目录,请保持「允许抓取」,并在下方「禁止目录」中填写具体路径。
Q:为什么同时出现 Allow 和 Disallow?
A:当蜘蛛允许抓取但又配置了禁止目录时,会输出 Allow: / + 一条或多条 Disallow,表示除指定目录外其他都允许抓取。