O que é Gerador de Robots.txt?
Gere arquivos robots.txt formatados corretamente para controlar como os rastreadores de mecanismos de busca acessam seu site. Adicione regras de user-agent, caminhos permitidos/bloqueados, defina intervalos de rastreamento e inclua referências ao sitemap — tudo sem escrever o arquivo manualmente.
Como usar
- Adicione regras de user-agent (ex.: Googlebot, Bingbot ou * para todos) e especifique quais caminhos permitir ou bloquear.
- Opcionalmente, defina valores de atraso de rastreamento e adicione a URL do seu sitemap.
- Copie ou baixe o arquivo robots.txt gerado e faça o upload para a raiz do seu site.
Resultado
Crie regras que permitam todos os rastreadores no seu site, mas bloqueiem os caminhos /admin/ e /api/, com um sitemap em https://example.com/sitemap.xml.
Ferramentas relacionadas
Gerador de dados estruturados
Gere marcação JSON-LD de schema para SEO
Página web para PDF
Capture uma página web como PDF
Gerador de política de privacidade
Gere uma política de privacidade para o seu site
Gerador de termos de serviço
Gere um documento de termos de serviço
Gerador de Consentimento de Cookies
Gera código para banners de consentimento de cookies
Minificador CSS
Minifique código CSS para reduzir o tamanho do arquivo