Antes que uma página possa classificar bem, ela precisa ser rastreada e indexada. Aqui compartilhamos cinco dicas para dar às suas páginas a melhor chance de serem indexadas nos resultados da pesquisa.

Mais do que qualquer outro tipo de site, os sites de comércio eletrônico são famosos por desenvolver estruturas de URL que criam problemas de rastreamento e indexação com os mecanismos de busca. É importante manter isso sob controle para evitar conteúdo duplicado e rastrear as complicações orçamentárias.

Aqui estão cinco maneiras de manter a indexação do seu site de comércio eletrônico ideal.

  1. Saiba o que está no índice do Google

Para começar, é importante verificar regularmente quantas das suas páginas o Google informa como indexadas. Você pode fazer isso executando uma pesquisa “site: example.com” no Google para ver quantas páginas o Google conhece em toda a web.

Embora o analista de tendências do Google tenha mencionado que esse número é apenas uma estimativa, é a maneira mais fácil de identificar se algo está ou não seriamente prejudicado na indexação do seu site.

Os números entre o sistema de gerenciamento de conteúdo (CMS) e a plataforma de e-commerce, o sitemap e os arquivos do servidor devem corresponder quase perfeitamente ou, pelo menos, ter quaisquer discrepâncias abordadas e explicadas. Esses números, por sua vez, devem se alinhar com o retorno de uma busca de operador de site do Google. Sites de SEO on-site ajudam aqui; um site desenvolvido com SEO em mente ajuda consideravelmente, evitando conteúdo duplicado e problemas estruturais que podem criar problemas de indexação.

Embora poucos resultados em um índice possam ser um problema, muitos resultados também são um problema, pois isso pode significar que você tem conteúdo duplicado nos resultados da pesquisa. Embora o Google tenha confirmado que não há “multa de conteúdo duplicado”, o conteúdo duplicado ainda prejudica seu orçamento de rastreamento e também pode diluir a autoridade de suas páginas pelas duplicadas.

Se o Google retornar muito poucos resultados:

  • Identifique quais páginas do seu sitemap não estão sendo exibidas no seu tráfego de pesquisa orgânica do Google Analytics. (Use um intervalo de datas longo.)
  • Pesquise uma amostra representativa dessas páginas no Google para identificar quais estão realmente ausentes do índice. (Você não precisa fazer isso para todas as páginas.)
  • Identifique padrões nas páginas que não estão indexando e aborde esses padrões sistematicamente em seu site para aumentar as chances de essas páginas serem indexadas. Os padrões a serem observados incluem problemas de conteúdo duplicado, falta de links internos de entrada, não inclusão no sitemap XML, noindexing não intencional ou canonização e HTML com sérios erros de validação.

Se o Google está retornando muitos resultados:

Execute um rastreamento de sites com o ScreamingFrog, o DeepCrawl , o SiteBulb ou uma ferramenta semelhante e identifique páginas com títulos duplicados, já que esses normalmente têm conteúdo duplicado.

Determine o que está causando as duplicadas e remova-as. Existem várias causas e soluções.

  1. Otimize sitemaps, robots.txt e links de navegação

Esses três elementos são fundamentais para uma forte indexação.

É importante observar que as diretrizes do Google e do Bing ainda dizem que as páginas devem ser acessadas em pelo menos um link, e os sitemaps não desqualificam a importância disso.

É igualmente importante garantir que seu arquivo robots.txt esteja funcionando, não esteja bloqueando o Google em nenhuma parte do site que você deseja indexar e que ele declare a localização do(s) seu(s) sitemap(s). Os arquivos robots.txt funcionais são muito importantes, pois, se estiverem inativos, podem fazer com que o Google pare de indexar seu site.

Finalmente, uma estrutura de links de navegação intuitiva e lógica é uma obrigação para uma boa indexação. Além do fato de que todas as páginas que você deseja indexar devem estar acessíveis em pelo menos um link em seu site, boas práticas de UX são essenciais. A categorização é fundamental para isso.

Por exemplo, uma pesquisa feita por George Miller, da Interaction Design Foundation, sugere que a mente humana só pode armazenar cerca de sete pedaços de informação na memória de curto prazo de cada vez.

Eu recomendo que sua estrutura de navegação seja projetada em torno dessa limitação e, na verdade, talvez até limite seu menu a não mais do que cinco categorias para facilitar ainda mais o uso das pessoas. Cinco categorias por seção de menu e cinco subcategorias por menu suspenso podem ser mais fáceis de navegar.

Veja alguns pontos importantes que os representantes do Google fizeram sobre a navegação e a indexação:

  • Acordos e guias que ocultam elementos de navegação podem ser incluídos se forem os melhores para a experiência do usuário. Em um mundo mobile-first, ocultar elementos dessa maneira não afeta a indexação.
  • Use a navegação breadcrumb , eles estão incluídos no cálculo do PageRank.
  • O analista de tendências para webmasters do Google, John Mueller, disse que qualquer estilo de menu padrão, como um mega menu ou menu suspenso, é bom, mas estruturas ruins de URL que produzem muitos URLs para uma única página são um problema.
  • Gary Illyes também disse que você deve evitar usar o atributo nofollow em seu próprio conteúdo ou links internos.
  • Os Googlers afirmaram muitas vezes que o texto âncora do link interno é um fator, portanto, certifique-se de que seus links de navegação sejam descritivos e úteis e evitem o preenchimento de palavras-chave.
  • Evite espaços infinitos ou armadilhas de aranha. Eles geralmente são criados quando as funções do site interativas são realizadas usando links.
  • Execute um rastreador em seu site para determinar se você acaba rastreando mais páginas do que o esperado, pois isso pode ajudar a identificar links de navegação que criam páginas duplicadas, espaços infinitos e outros problemas.
  • Mantenha seus URLs o mais próximo possível da origem de uma perspectiva de experiência do usuário (UX). Gary Illyes disse que as páginas mais além da origem serão rastreadas e descobertas com menos frequência.
  • Certifique-se de que a navegação completa do seu site esteja acessível a partir de dispositivos móveis, pois a indexação mobile-first significa que essa é a versão que o Google está usando para indexar seu site.

O Bing recomenda o seguinte:

  • URLs ricas em palavras-chave que evitam variáveis ​​de sessão e docIDs.
  • Uma estrutura de site altamente funcional que incentiva a vinculação interna.
  • Uma hierarquia de conteúdo organizado.
  1. Identifique os parâmetros de URL

Os parâmetros de URL são uma causa muito comum de “espaços infinitos” e conteúdo duplicado, o que limita severamente o orçamento de rastreamento e pode diluir os sinais. São variáveis ​​adicionadas à sua estrutura de URL que contêm instruções do servidor usadas para fazer coisas como:

  • Ordenar itens
  • Armazenar informações da sessão do usuário.
  • Filtrar itens.
  • Personalizar a aparência da página.
  • Retornar resultados de pesquisa no site.
  • Acompanhar campanhas publicitárias ou informações de sinal para o Google Analytics.

Se você usar o Screaming Frog, poderá identificar os parâmetros de URL na guia URI selecionando “Parâmetros” no menu suspenso “Filtro”.

Examine os diferentes tipos de parâmetros de URL em jogo. Quaisquer parâmetros de URL que não afetem significativamente o conteúdo, como tags de campanha de anúncios, classificação, filtragem e personalização, devem ser tratados usando uma diretiva noindex ou canonicalization (e nunca ambos).

O Bing também oferece uma ferramenta útil para ignorar os parâmetros de URL selecionados na seção Configurar Meu Site do Bing Webmaster Tools.

Se os parâmetros afetarem significativamente o conteúdo de forma a criar páginas que não sejam duplicatas, aqui estão algumas recomendações do Google sobre a implementação correta:

  • Use a codificação de URL padrão, no formato “? Key = value &”. Não use codificações não padrão, como colchetes ou vírgulas.
  • Você deve usar parâmetros, nunca caminhos de arquivo , para listar valores que não tenham impacto significativo no conteúdo da página.
  • Os valores gerados pelo usuário que não afetam significativamente o conteúdo devem ser colocados em um diretório de filtragem que possa ser oculto com o robots.txt, ou de outra forma tratado usando alguma forma de noindexing ou canonicalization.
  • Use cookies em vez de parâmetros irrelevantes se um grande número deles for necessário para que as sessões do usuário eliminem a duplicação de conteúdo que sobrecarrega os rastreadores da web.
  • Não gere parâmetros para filtros de usuário que não produzem resultados, portanto, as páginas vazias não recebem rastreadores da web indexados ou tributários.
  • Permitir que as páginas sejam rastreadas apenas se produzirem novo conteúdo para os mecanismos de pesquisa.
  • Não permita que links sejam clicados para categorias ou filtros que não contenham produtos.

 

Deixe uma resposta