{"section":"tutorials","requestedLocale":"pt","requestedSlug":"rastreamento-google-search-console-robots-txt","locale":"pt","slug":"rastreamento-google-search-console-robots-txt","path":"docs/pt/tutorials/projetos-e-integrações/rastreamento-google-search-console-robots-txt.md","branch":"main","content":"O robots.txt é um arquivo de texto que os mecanismos de buscas utilizam para definir regras de escaneamento do site para os crawlers.\n\nA VTEX possui nativamente interface para edição e customização de seu arquivo robots.txt.\n\nPara acessar:\n\n1. Clique no menu __Configurações da loja__;\n2. Na seção __Storefront__, clique __Configurações__;\n3. Em seguida, clique na aba __SEO__;\n4. Faça as alterações desejadas na caixa de texto __Robots.txt__.\n\nPara compreender melhor o conteúdo, detalho a seguir as funções básicas a seguir:\n\n- **Allow:** ao utilizar esse termo você estará permitindo que o crawler das ferramentas de busca navegue e indexe o endereço indicado.\n- **Disallow:** você estará bloqueando o conteúdo indicado.\n\nPara validar o conteúdo do arquivo `robots.txt`, é importante:\n\n- Verificar se as URLs listadas realmente precisam de regras específicas de rastreamento;\n- Confirmar se as regras estão corretamente aplicadas às URLs desejadas;\n- Garantir que o arquivo `sitemap.xml` esteja corretamente informado.\n\nA edição do arquivo `robots.txt` da loja está disponível em:\n```\n{accountName}.vtexcommercestable.com.br/admin/Site/ConfigSEOContents.aspx\n```\n\nApós configurar o `robots.txt`, o próximo passo é revisar o `sitemap.xml` da loja. O sitemap tem a função de apresentar a estrutura do site aos mecanismos de busca, indicando quais páginas devem ser rastreadas e indexadas, como categorias, produtos e páginas institucionais.\n\nAo informar corretamente o sitemap no Google Search Console, você facilita o trabalho do crawler, permitindo que as páginas da loja sejam descobertas e indexadas de forma mais rápida nos resultados de busca."}