O Google atualizou suas orientações e removeu a recomendação de bloquear páginas traduzidas automaticamente por meio do arquivo robots.txt. Essa alteração visa alinhar a documentação técnica do Google com suas políticas contra spam, focando na qualidade e valor do conteúdo para o usuário.
- Anteriormente, o Google sugeria que sites bloqueassem páginas traduzidas automaticamente via robots.txt.
- Agora, a avaliação do conteúdo leva em conta o valor entregado ao usuário, independentemente do método de criação.
- Para traduções de baixa qualidade, o ideal é utilizar meta tags como “noindex”, evitando a exclusão massiva via robots.txt.