O que é um arquivo robots.txt?
Um arquivo robots.txt informa aos rastreadores do mecanismo de pesquisa quais páginas ou arquivos podem ser solicitados a partir do seu site. Esse recurso é usado principalmente para evitar a sobrecarga do site com solicitações.
Para que serve o robots.txt?
O robots.txt é usado principalmente para gerenciar o tráfego do rastreador no seu site e, em alguns casos, para manter uma página fora do Google, dependendo do tipo de arquivo.
A plataforma Smplaces possui várias funções para empregar estratégias de SEO, algumas automáticas e outras feita manualmente através do administrador do seu marketplace.
Como acessar seu arquivo?
Basta adicionar /robots.txt logo após sua URL (seu endereço)
Exemplo: www.seumarketplace.com.br/robots.txt
Resultado esperado para verificar se os parâmetros estão sendo carregados corretamente pela plataforma:
User-agent: * Crawl-delay: 30 Disallow: /carrinho Disallow: /checkout Disallow: /produtos/buscar* Disallow: *?filter* Sitemap: https://www.exemplo.com/sitemap/general.xml
Se o resultado for algo como ilustrado na imagem abaixo, solicitamos a abertura de um ticket para verificação e providências, através do e-mail suporte@smplaces.com.br
User-agent: * Disallow: * Noindex: *
Consulte também os manuais sobre SEO e Google Merchant:
https://smplaces.movidesk.com/kb/article/181574/marketplace-habilitando-google-shopping-nos-produtos
Was this article helpful?
That’s Great!
Thank you for your feedback
Sorry! We couldn't be helpful
Thank you for your feedback
Feedback sent
We appreciate your effort and will try to fix the article