Arquivo robots.txt

Modified on Thu, 16 Feb, 2023 at 5:13 PM

O que é um arquivo robots.txt?


Um arquivo robots.txt informa aos rastreadores do mecanismo de pesquisa quais páginas ou arquivos podem ser solicitados a partir do seu site. Esse recurso é usado principalmente para evitar a sobrecarga do site com solicitações.

Para que serve o robots.txt?


O robots.txt é usado principalmente para gerenciar o tráfego do rastreador no seu site e, em alguns casos, para manter uma página fora do Google, dependendo do tipo de arquivo.

A plataforma Smplaces possui várias funções para empregar estratégias de SEO, algumas automáticas e outras feita manualmente através do administrador do seu marketplace.

Como acessar seu arquivo?

Basta adicionar /robots.txt logo após sua URL (seu endereço)

Exemplo: www.seumarketplace.com.br/robots.txt 

Resultado esperado para verificar se os parâmetros estão sendo carregados corretamente pela plataforma:

User-agent: * Crawl-delay: 30 Disallow: /carrinho Disallow: /checkout Disallow: /produtos/buscar* Disallow: *?filter* Sitemap: https://www.exemplo.com/sitemap/general.xml

Se o resultado for algo como ilustrado na imagem abaixo, solicitamos a abertura de um ticket para verificação e providências, através do e-mail suporte@smplaces.com.br 

User-agent: * Disallow: * Noindex: *

 

Consulte também os manuais sobre SEO e Google Merchant:

https://smplaces.movidesk.com/kb/article/181287/principais-funcionalidades-de-seo-na-smplaces?ticketId=&q=


https://smplaces.movidesk.com/kb/article/181574/marketplace-habilitando-google-shopping-nos-produtos


https://smplaces.movidesk.com/kb/article/178934/lojista-habilitando-google-shopping-nos-produtos?ticketId=&q=

Was this article helpful?

That’s Great!

Thank you for your feedback

Sorry! We couldn't be helpful

Thank you for your feedback

Let us know how can we improve this article!

Select at least one of the reasons

Feedback sent

We appreciate your effort and will try to fix the article