O que é SEO? O guia definitivo para ranquear bem o seu site

19/7/2020
Escrito com ♥ por
nataliafigueiredo

Search Engine Optimization ou SEO (para os íntimos) é um conjunto de técnicas e estratégias para garantir um bom ranqueamento nos mecanismos de busca. Potencializando o alcance do seu produto ou conteúdo para conversões, que podem ser leads, compras, um envio de formulário, agendamento de consulta ou outra finalidade do seu negócio.

Hoje, o buscador mais cobiçado é o Google que responde por 92,06% das pesquisas online. Mas vale realmente para qualquer buscador, como Bing e Yahoo, ou dentro de ferramentas como Youtube ou Instagram.взять кредитную карту онлайн срочно

Para entender a dimensão dessas estratégias, você sabia que no Google são mais de 5,6 bilhões de buscas realizadas todos os dias? Isso representa 228 milhões por hora e 2 trilhões por ano. E no meio dessas buscas estão pessoas que podem estar precisando do seu produto ou serviço.

Eu, Robô ou Googlebot

Mas, afinal como o Google conhece tantos sites para retornar milhares (ou até mesmo milhões) de páginas nos resultados das nossas pesquisas no buscador? A resposta pode ser resumida no Googlebot. Um programa desenvolvido pelo Google com a finalidade de rastrear as páginas publicadas em toda web.

Esse bot, também chamado de crawler ou spider, é um software que navega de página em página em um processo de indexação. Para conseguir inspecionar as bilhões de páginas existentes na internet, o Google precisa manter diversas instâncias desses bots funcionando simultaneamente em um conjunto de computadores.

Como forçar o Google a ler o meu site?

O rastreamento utiliza uma lista de urls já definida com base nos rastreamentos anteriores ou pode ser atualizada com a ajuda dos próprios webmasters, ao enviar seus sitemaps diretamente pelo Search Console (uma ferramenta gratuita com diversos recursos que permitem analisar a situação do seu site no Google).

Lembre-se de verificar o robos.txt - um arquivo que fica na raiz do site e define as páginas ou diretórios aos quais os bots podem ter acesso ou não. À medida que o Googlebot visita os sites, ele detecta os links presentes em cada página e os inclui na fila a rastrear.

Conforme ele encontra conteúdos novos, mudanças nas páginas e links quebrados (quando um link não direciona para uma página válida e exibe o código de erro 404), envia essas informações ao índice para que ele seja atualizado.

Os buscadores não conseguiram mapear o seu site apenas em algumas situações, como plataformas criadas em Flash, por exemplo, ou outra tecnologia já seja ultrapassada no mercado de busca e em outras áreas.

Como ganhar as primeiras posições?

Estar no topo do Google deve ser a sua meta, pois representa aumento do tráfego orgânico no longo e médio prazo. Segundo estudo da Backlinko, o primeiro colocado tem uma taxa de cliques média de 31,7% – são 10 vezes mais chances de receber um clique do que o 10º resultado da primeira página.

As técnicas focam na relevância, autoridade, qualidade do conteúdo e até mesmo como outras páginas na internet enxergam o seu trabalho (backlinks). Esses requisitos mudam de tempos em tempos, mas sempre com foco no usuário e agora mais do que nunca a qualidade e utilidade das informações é levada em consideração. Se antes o gerador de lero lero não colava. Hoje menos ainda.

Na primeira página, temos muitos desafios, pois estamos dividindo o espaço também com as pesquisas pagas. No entanto, em uma pesquisa foi revelado que os brasileiros confiam 77% mais em busca orgânica que em links patrocinados. Você sabe a diferença entre eles?

Quando se faz uma busca na web, o mecanismo retorna dois tipos de resultados e ambos dividem espaço na SERP (sigla para Search Engine Results Page), que é a página de resultados de cada pesquisa no buscador. São eles:

  • Anúncios ou links patrocinados: formato de publicidade nos buscadores, ou seja, são resultados pagos
  • Resultados orgânicos: são os resultados que o algoritmo traz com base na sua própria classificação (não-pagos).

Fatores de ranqueamento

O Google não divulga uma lista na qual revela tudo o que seus algoritmos levam em consideração para classificar uma determinada página. No entanto, ele vai dando pistas em suas publicações sobre atualizações de algoritmos, no blog para desenvolvedores e nos tópicos de ajuda do próprio Search Console. E nós profissionais da área vamos testando e descobrindo outras.

Nós podemos dividir as estratégias em dois grupos: On Page e Off page.

Fatores on page:

  • Conteúdo útil, relevante, atual e original;
  • Presença da palavra-chave (keywords) em pontos estratégicos como título e subtítulos, mas sem exageros que podem ter o efeito contrário;
  • Uso de bons links internos e externos (faça conexões e use a rede a seu favor);
  • Uso em sequência estruturada de tags (etiquetas), como H1 e H2;
  • Page Speed ou velocidade de carregamento da página. Estima-se hoje que o tempo ideal é de até 5 segundos para o carregamento do site;
  • Otimização de imagens (leves e com texto descritivo em alt);
  • Usabilidade e experiência do usuário como meta;
  • Design responsivo para celulares e tablets;
  • Presença do protocolo HTTPS;
  • Limite de requisições HTTP;
  • Páginas livres de erros (como links quebrados e de HTML).

Fatores off page:

  • Backlinks (links de outros domínios que apontam para o seu conteúdo);
  • Autoridade, relevância e popularidade do site com link para o seu;
  • Diversidade de sites com backlinks;
  • Nichos de sites com backlinks;
  • Texto âncora utilizado no backlink e a relação dele com o conteúdo da sua página;
  • Menções de outros sites, ainda que sem link;

EAT

A última atualização anunciada pelo google em 2019 foi a sigla EAT, que significa especialidade, autoridade e confiabilidade. Ela é utilizada para resumir os principais fatores utilizados na avaliação de um conteúdo.

Isso é importante não apenas porque estabelece parâmetros claros para seguir na produção de conteúdo, mas também porque se trata de uma recomendação oficial, que faz parte das guidelines do Google.

No EAT, a Especialidade verifica que o autor está apto e possui propriedade para abordar o conteúdo, a Autoridade considera se o site que hospeda o conteúdo está relacionado ao tópico em questão, além de reconhecer o autor como referência no tema. E a confiabilidade observa se o conteúdo se apoia em fatos e dados e, ainda, se o site atende aos principais requisitos de segurança e idoneidade.

Quer se aprofundar ainda mais no tema? Confira mais artigos disponíveis aqui no blog: SEO para e-commerce: o guia definitivo para quem quer vender mais com o Google e 5 dicas para sua empresa migrar para o digital.

Como descobrir a minha palavra-chave ideal?

Primeiramente, é interessante em SEO entender a diferença entre head tail e long tail.

As head tails são palavras muito buscadas e por isso muito concorridas, já as long tails ou cauda longa são palavras que recebem menos buscas, no entanto atingem um nicho de mercado específico, que pode ser justamente o que você oferece.

Por serem focadas em um nicho, a possibilidade de rankeamento com elas é mais fácil e pode significar muito menos concorrência.

O conceito foi apresentado por Chris Anderson no livro "A Cauda Longa – Do mercado de massa para o mercado de nicho" e é usado por marcas como Apple, Amazon e Netflix. Na obra, o autor descreve a estratégia de varejo de vender pequenas quantidades de uma grande variedade de itens, ao invés de somente alguns produtos populares.

Para encontrar a sua palavra-chave de cauda longa há recursos gratuitos, como o Google Keyword Planner, disponível no Google Ads e pagos, que oferecem recursos gratuitos limitados, como SEMRush, Keyword Tool e Ubersuggest.

Faça o teste e depois conte para gente qual ferramenta você mais curtiu! Dúvidas, é só entrar em contato ;)