反馈

robots文件生成器

选择模板会覆盖当前编辑区(请先保存/复制现有内容)。
填写 Host 可生成 Host: header(非标准必需)
预览
# 预览将在此处显示
语法检查 & 信息
说明:robots.txt 为明文规则文件。请确保 Sitemap、Host 使用完整 URL / 域名。

提示:
- 若使用 Crawl-delay,请了解不同爬虫支持情况不一致。
- `User-agent: *` 匹配所有爬虫。
- 注释以 `#` 开头。
快速校验
点击「生成 Preview」查看基本校验(空项、URL 格式等)。

📖 工具说明

1. 为什么需要 Robots.txt 生成器?

编写 robots.txt 虽不复杂,但格式错误可能导致灾难性的后果:


2. 核心功能解析

本站 工具将复杂的指令简化为开关与表单:

A. 主流爬虫预设 (User-Agent Presets)
B. 指令直观配置
C. 站点地图集成 (Sitemap)
D. 实时语法预览

3. 操作流程简述

  1. 设置默认规则: 选择是否允许所有搜索引擎抓取您的整个网站。
  2. 添加排除目录: 在“禁止访问路径”框中输入不希望被索引的文件夹(如 /private/)。
  3. 指定特定爬虫(可选): 为特定的爬虫设置特殊的规则(例如:允许 Google 但禁止百度)。
  4. 填写站点地图: 输入您的站点地图 URL(如 https://example.com/sitemap.xml)。
  5. 导出文件:
    • 点击“复制代码”直接粘贴。
    • 或点击“下载 robots.txt”,将其上传至网站的根目录下。

4. 常见配置示例参考

场景描述 生成的代码示例
允许所有爬虫访问全站 User-agent: * Disallow:
禁止所有爬虫访问全站 User-agent: * Disallow: /
禁止访问后台和临时目录 Disallow: /admin/ Disallow: /tmp/
仅允许 Google 抓取 User-agent: Googlebot Allow: / User-agent: * Disallow: /

5. 为什么选择本站Robots 助手?

📖 相关推荐