什么是Robots.txt生成器?
生成格式规范的robots.txt文件,控制搜索引擎爬虫对网站的访问方式。可添加User-Agent规则、设置允许/禁止路径、指定抓取延迟和站点地图引用,无需手动编写文件。
使用方法
- 添加User-Agent规则(如Googlebot、Bingbot或*代表全部),并指定允许或禁止访问的路径。
- 可选择设置抓取延迟并添加站点地图URL。
- 复制或下载生成的robots.txt文件,上传到网站根目录即可。
结果
创建规则允许所有爬虫访问网站,但屏蔽/admin/和/api/路径,并声明站点地图地址为https://example.com/sitemap.xml。