Blog

SEO Técnico: Os Erros que Estão Matando Seu Ranqueamento

10 min de leitura

Você investiu em conteúdo. Otimizou títulos e descrições. Fez link building. E mesmo assim, suas páginas não ranqueiam. Na maioria dos casos, o problema está no SEO técnico — a infraestrutura invisível que determina se o Google consegue rastrear, indexar e entender seu e-commerce.

Resumo rápido: Como corrigir: Comprima imagens para WebP com qualidade de 80%. Core Web Vitals são fatores de ranqueamento desde 2021.

SEO técnico é como a parte elétrica de uma casa. Ninguém vê, mas quando falha, nada funciona. Se o Googlebot não consegue acessar e indexar suas páginas corretamente, elas simplesmente não existem para o buscador. E o cenário nos e-commerces brasileiros é preocupante: sites lentos, páginas bloqueadas sem intenção, conteúdo duplicado em escala, Core Web Vitals no vermelho. Coisas que corroem o ranqueamento silenciosamente enquanto o lojista culpa o algoritmo.

Neste artigo, vou mapear os erros técnicos mais comuns em e-commerces e como corrigi-los. Cada seção é um ponto de auditoria. Se você ler com a loja aberta em outra aba, vai encontrar problemas. Garantido.

Core Web Vitals: as métricas que o Google mede (e que você ignora)

Core Web Vitals são fatores de ranqueamento desde 2021. Não são fatores isolados que decidem tudo — mas em mercados competitivos onde os primeiros resultados têm conteúdo e backlinks similares, são o desempate. E a maioria dos e-commerces brasileiros está reprovada.

LCP (Largest Contentful Paint)

O LCP mede quanto tempo leva para o maior elemento visível da página carregar — geralmente a imagem principal ou o banner. A meta é abaixo de 2,5 segundos. Em e-commerce, o vilão comum é a imagem hero da home ou a primeira foto do produto carregando em resolução desnecessariamente alta.

Como corrigir: Comprima imagens para WebP com qualidade de 80%. Use lazy loading para tudo abaixo da dobra. Implemente preload para a imagem LCP. Verifique se o servidor responde em menos de 200ms (TTFB). Se o TTFB está alto, o problema pode ser hosting — trocar de provedor resolve mais que otimização de código.

INP (Interaction to Next Paint)

O INP substituiu o FID em março de 2024 e mede a responsividade das interações — quanto tempo entre o clique do usuário e a resposta visual na tela. A meta é abaixo de 200ms. Em e-commerce, os problemas comuns são: JavaScript pesado bloqueando o thread principal, filtros de categoria que travam ao clicar e botões de “adicionar ao carrinho” com atraso perceptível.

Como corrigir: Identifique scripts de terceiros bloqueando a interatividade (chat widgets, pixels de remarketing, scripts de personalização). Adie o carregamento de tudo não essencial para a interação inicial. Quebre bundles grandes de JavaScript em chunks menores. Use o Chrome DevTools para identificar tarefas longas bloqueando o thread principal.

CLS (Cumulative Layout Shift)

CLS mede a estabilidade visual — quanto os elementos da página “pulam” durante o carregamento. A meta é abaixo de 0,1. Nada irrita mais o usuário do que tentar clicar em um botão e a página se mover no último segundo. Em e-commerce, os culpados são: banners que carregam depois do texto, imagens sem dimensões definidas, fontes web que causam flash de texto e anúncios que empurram o conteúdo.

Como corrigir: Defina width e height em todas as imagens e iframes. Reserve espaço para elementos dinâmicos (banners, ads) com CSS antes do carregamento. Use font-display: swap para fontes web e precarregue as fontes críticas. Evite inserir conteúdo dinamicamente acima do viewport.

Problemas de rastreamento (crawlability)

Robots.txt mal configurado

O robots.txt é o primeiro arquivo que o Googlebot lê. Se ele bloqueia acidentalmente páginas importantes, essas páginas não são rastreadas. Erro comum em e-commerce: bloquear diretórios inteiros como /carrinho/, /checkout/ (correto) mas junto bloquear /categoria/ ou /produto/ (desastroso).

Verifique seu robots.txt em seudominio.com.br/robots.txt. Teste usando a ferramenta de teste de robots.txt no Google Search Console. Certifique-se de que URLs com parâmetros de filtro e ordenação estão bloqueadas (para evitar rastreamento de URLs duplicadas), mas as URLs canônicas estão liberadas.

Crawl budget desperdiçado

O Google aloca um “orçamento de rastreamento” para cada site — quantas páginas ele vai rastrear por dia. Em e-commerces grandes, com milhares de SKUs, esse orçamento é limitado. Se o Googlebot gasta tempo rastreando páginas de filtro, URLs com parâmetros, resultados de busca interna e páginas de baixo valor, sobra menos para as páginas que importam.

Soluções: Bloqueie URLs de filtros no robots.txt. Use noindex em páginas de busca interna. Implemente canonical tags em páginas com parâmetros. Mantenha o XML sitemap apenas com URLs indexáveis. Remova URLs quebradas e redirects desnecessários. Cada visita do Googlebot ao seu site precisa contar.

“Na maioria dos e-commerces, o Googlebot gasta 60-70% do crawl budget em URLs que não deveriam ser rastreadas. É como pagar um vendedor para organizar estoque em vez de atender cliente.”

— John Mueller, Search Advocate do Google

Problemas de indexação

Páginas não indexadas sem motivo aparente

O Google Search Console mostra quantas páginas estão indexadas e quantas foram excluídas. Se o número de páginas excluídas é alto, investigue o relatório “Páginas” (antigo “Cobertura”) para entender os motivos. Os mais comuns para e-commerce:

“Rastreada, mas não indexada”: O Google encontrou a página, leu e decidiu que não vale a pena indexar. Geralmente acontece com páginas de conteúdo fino — descrições de produto com 20 palavras, páginas de categoria vazias ou com poucos produtos. Solução: enriqueça o conteúdo dessas páginas.

“Duplicada — URL enviada não selecionada como canônica”: O Google identificou duas ou mais URLs com conteúdo similar e escolheu uma diferente da que você queria como canônica. Isso é epidêmico em e-commerces com variações de produto, URLs com parâmetros e versões com/sem www ou com/sem barra final.

Canonical tags: o remédio e o veneno

A tag canonical diz ao Google qual URL é a “oficial” quando existem versões duplicadas ou similares. Em e-commerce, canonical tags são essenciais para lidar com URLs de filtros, variações de produto, paginação e parâmetros de tracking (UTM). Mas canonical tags mal implementadas causam mais problemas do que resolvem.

Erros comuns: Canonical apontando para página 404. Canonical apontando para URL diferente da indexada, criando loop. Canonical apontando para si mesma em todas as páginas (correto, mas não resolve duplicação entre páginas diferentes). Páginas paginadas com canonical apontando todas para a página 1 (o Google entende isso como “não indexe as demais”).

Conteúdo duplicado em escala

E-commerce é, por natureza, propenso a conteúdo duplicado. O mesmo produto aparece em várias categorias com URLs diferentes. Filtros de cor, tamanho e preço geram URLs únicas com conteúdo idêntico. A descrição do fabricante é copiada por centenas de revendedores. Cada instância de duplicação dilui a autoridade e confunde o Google sobre qual página ranquear.

Auditoria prática: Use Screaming Frog (gratuito até 500 URLs) para identificar title tags e meta descriptions duplicadas. No Google, pesquise trechos da descrição entre aspas — se outros sites aparecem com o mesmo texto, você tem duplicação externa. A solução: conteúdo original, canonical tags corretas e otimização on-page página por página.

“O e-commerce típico tem entre 30% e 60% de páginas com algum nível de duplicação. Não é negligência — é consequência da estrutura de catálogos. Mas quem resolve isso primeiro ganha vantagem competitiva real.”

— Aleyda Solis, consultora internacional de SEO e autora do Crawling Mondays

XML Sitemap: o mapa que o Google precisa

O XML sitemap lista todas as URLs que você quer que o Google indexe. Para e-commerce, é fundamental que ele esteja atualizado e contenha apenas URLs canônicas, indexáveis e com status 200. Sitemaps com URLs quebradas, redirecionadas ou bloqueadas por robots.txt desperdiçam crawl budget e sinalizam desorganização para o Google.

Boas práticas: Segmente sitemaps por tipo (produtos, categorias, blog, páginas institucionais) — facilita o monitoramento no Search Console. Limite cada sitemap a 50.000 URLs ou 50MB. Inclua a tag lastmod com a data real da última modificação (não a data atual gerada automaticamente). Submeta os sitemaps no Google Search Console e monitore os erros reportados.

HTTPS, Mobile-First e JavaScript SEO

HTTPS e segurança

Se seu e-commerce ainda tem páginas servidas em HTTP, isso é emergência. HTTPS é fator de ranqueamento desde 2014. Mas o problema mais comum não é a falta de HTTPS — é a migração incompleta: páginas internas linkando para versão HTTP, imagens servidas via HTTP em páginas HTTPS (mixed content), e falta de redirect 301. Todas as requisições devem ser HTTPS. Um único recurso HTTP basta para o navegador exibir “não seguro”.

Mobile-First Indexing

Desde 2023, o Google usa exclusivamente a versão mobile para indexação. Se a versão mobile tem menos conteúdo, menos links internos ou elementos quebrados, é essa versão que determina seu ranqueamento — inclusive em buscas desktop. Verifique: menus que escondem links importantes, conteúdo colapsado em accordion, imagens que não carregam e pop-ups intrusivos que cobrem o conteúdo.

JavaScript SEO

E-commerces com frameworks JavaScript (React, Angular, Vue) enfrentam risco de conteúdo não indexado. O Google renderiza JavaScript com atraso e prioridade menor. Solução: Server-Side Rendering (SSR) para páginas que precisam ranquear. Use “Inspeção de URL” no Search Console para verificar se o Google está vendo o conteúdo renderizado corretamente.

Navegação facetada: o vilão silencioso

Filtros de categoria (por cor, tamanho, preço, marca) geram URLs únicas para cada combinação. Uma categoria com 5 cores, 8 tamanhos e 10 faixas de preço cria 400 URLs — todas com conteúdo idêntico. Isso explode o crawl budget e gera duplicação massiva. Solução: bloqueie padrões de filtro no robots.txt, implemente canonical tags para a categoria principal e configure noindex, follow nas URLs filtradas. Em VTEX e Shopify, essas configurações existem nativamente mas precisam ser ativadas. Combine com estratégias de link building para direcionar autoridade às páginas corretas.

Dados estruturados com erros

Schema markup com erros é pior que não ter schema. Erros geram alertas no Search Console, eliminam rich snippets e sinalizam baixa qualidade técnica. Os mais comuns: preço ausente ou em formato errado, disponibilidade desatualizada, avaliações sem review válido e breadcrumbs quebrados. Valide usando o Rich Results Test regularmente. Corrija alertas imediatamente — impactam a percepção geral do Google sobre seu site. Consulte o guia completo de SEO para e-commerce para ver como tudo se conecta.

FAQ — SEO Técnico para E-commerce

Como faço uma auditoria técnica de SEO se não sou desenvolvedor?

Use o Screaming Frog (gratuito até 500 URLs) para rastrear seu site e identificar problemas. O Google Search Console mostra erros de indexação e Core Web Vitals gratuitamente. O PageSpeed Insights analisa velocidade página por página. Essas três ferramentas cobrem 80% de uma auditoria técnica básica sem necessidade de conhecimento de código.

Qual erro técnico causa mais impacto negativo no ranqueamento?

Problemas de indexação. Se o Google não consegue indexar suas páginas, nada mais importa. Verifique primeiro se suas páginas importantes estão indexadas (busque site:seudominio.com.br no Google). Se páginas estão faltando, investigue bloqueios no robots.txt, canonical tags incorretas e tags noindex acidentais antes de qualquer outra otimização.

Core Web Vitals ruins realmente derrubam ranqueamento?

Isoladamente, Core Web Vitals não são o fator determinante. Mas em SERPs competitivas onde os primeiros resultados têm conteúdo e backlinks similares, Core Web Vitals são o fator de desempate. E independente de SEO, sites lentos convertem menos — cada segundo adicional de carregamento reduz a taxa de conversão em 7% em média. A correção vale pelo SEO e pela receita.

Minha plataforma de e-commerce cuida do SEO técnico automaticamente?

Parcialmente. Plataformas como Shopify, VTEX e Nuvemshop (25% OFF no 1º mês) oferecem infraestrutura básica (HTTPS, sitemap, canonical tags padrão, schema básico). Mas configurações específicas — quais URLs bloquear, como lidar com filtros, otimização de imagens, dados estruturados completos — precisam ser feitas manualmente ou com apps/plugins. A plataforma dá o esqueleto. Você constrói o resto.

Com que frequência devo auditar o SEO técnico do meu e-commerce?

Auditoria completa: a cada trimestre. Monitoramento de Core Web Vitals e erros de indexação: semanalmente pelo Search Console. Após qualquer mudança significativa (redesign, migração de plataforma, novas funcionalidades), faça auditoria imediata. Problemas técnicos surgem por atualizações de plugins e alterações de código feitas sem pensar em SEO.

Conclusão

SEO técnico não é glamouroso. Não gera posts virais no LinkedIn. Ninguém compartilha que “corrigiu canonical tags” com entusiasmo. Mas é a diferença entre um e-commerce que ranqueia e um que gasta fortunas em anúncio porque não consegue tráfego orgânico.

Abra o Google Search Console agora. Veja o relatório de Páginas. Conte quantas estão excluídas e por quê. Rode o PageSpeed Insights nas suas 5 páginas mais importantes. Rastreie seu site com o Screaming Frog. Cada erro encontrado e corrigido é um desbloqueio de potencial que já estava no seu site — preso por uma questão técnica que ninguém estava olhando. O conteúdo faz o Google querer te ranquear. O SEO técnico faz o Google conseguir. 🔧

[cta_newsletter]

Compartilhar:

Deixe um comentário

Seu e-mail não será publicado. Campos obrigatórios marcados com *