Logo da Google

Quais foram as principais atualizações do Google em 2015 e como elas afetaram seu blog?

O algoritmo do Google está sempre mudando para oferecer uma melhor experiência aos usuários. Saiba quais foram as principais atualizações ao longo da história e quais suas especificidades.

Se você pratica ações de Searching Engine Optimization (SEO) no seu website, precisa se preocupar com as mudanças no algoritmo do Google.

E como não? Afinal, são muitos os esforços para posicionar as páginas em boas colocações no buscador. Isso envolve longas horas de planejamento, execução e mensuração de resultados.

Por isso, quando surgem as atualizações do Google, os profissionais prontamente precisam se ajustar aos novos padrões de ranqueamento.

A comunidade se movimenta. Novas técnicas são criadas. Sites são penalizados. E, é claro, muitas adaptações são feitas.

Os updates contínuos são uma maneira de melhorar a experiência do usuário e não dar chance aos praticantes do black hat. E, ao acompanhar as novas tendências em SEO, surgem novas oportunidades de conseguir os tão desejados primeiros lugares do mecanismo.

Por isso, entender quais são as modificações que ocorreram pode te ajudar a dimensionar os efeitos em sua estratégia. Afinal, elas continuam ativas.

Se você se importa com as atualizações do Google e quer saber mais sobre elas, não se preocupe. Neste post, você conhecerá cada um dos updates, assim como seus efeitos, causas e objetivos.

Vamos lá?

Quais são as principais atualizações do Google

Panda

Lançado em fevereiro de 2011, o Panda teve como principal objetivo priorizar a qualidade do conteúdo. É claro que a escolha das palavras-chave continuou a ter significância nas buscas, mas essa atualização visava dar destaque aos textos que melhor respondiam às dúvidas do usuário.

Essa foi uma das maiores revoluções no mundo do SEO. Nos Estados Unidos, 12% das pesquisas foram afetadas por sua versão 1.0.

Graças a ela, mesmo domínios com termos de pesquisa exatos podem se posicionar abaixo de páginas com uma relação menor com a palavra-chave, mas conteúdo rico.

A atualização também penalizou sites com conteúdo de baixa qualidade, spameosos, muito rasos ou com práticas que visavam simplesmente o bom ranqueamento, como a utilização massiva dos termos (chamado de keyword stuffing).

Além disso, conteúdo duplicado e plágio se tornaram facilmente identificáveis. A partir dela, não existiriam mais o Ctrl + C, Ctrl + V, e sites que o fizessem teriam quedas significativas — ou até mesmo a exclusão — no principal motor de busca.

Contudo, em sua 1ª atualização, o objetivo era acabar de vez com o content farm (fazenda de conteúdo, em tradução livre).

É simples entender o conceito:

Sites selecionavam palavras-chave relevantes e contratavam múltiplos redatores, muitas vezes sem conhecimento sobre o tema, apenas para se posicionar no topo das SERPs. Geralmente, o resultado eram textos sem muita profundidade ou informações irrelevantes.

Mas acalme-se:

Sites com vários redatores ainda podem ser bem posicionados (como é o caso do marketingdeconteudo.com), desde que tenham conteúdo valioso.

Em resumo, o que aconteceu nessa época foi que a qualidade do conteúdo passou a ser o diferencial para o bom posicionamento. É claro que o maior beneficiado com isso foi o internauta, que passou a evitar páginas com conteúdo de baixa qualidade.

Inicialmente, o Panda era apenas um entre os 200 fatores de ranqueamento. Porém, desde então, essa espécie de filtro vem sendo atualizada com regularidade e, em 2016, foi incorporado definitivamente ao Googlebot.

Em suas versões posteriores, o Panda:

  • incentivou a atualização do conteúdo e as referências a boas fontes de pesquisas;
  • aperfeiçoou o filtro de ortografia e a fluidez de leitura; e
  • aliou o engajamento da audiência como um dos fatores de ranqueamento.

É claro que tudo isso também é influenciado pela experiência do usuário. São muito importantes elementos como:

Penguin

Em abril de 2012, o Google lançou o Penguin.

O objetivo desse update era diferente do Panda: verificar a qualidade dos links recebidos para posicionar páginas nos resultados de buscas.

Antes disso, a manipulação era constante. Estratégias que hoje são consideradas black hat, e obviamente punidas pelo mecanismo, eram comuns.

Um bom exemplo é uma prática chamada de link farm (fazenda de links, em tradução livre). Basicamente, consiste em criar várias páginas e linkar para um mesmo texto âncora, ou seja, repassar autoridade para uma página de destino.

Isso não é muito benéfico para o usuário, já que as referências devem ser feitas de maneira natural e enviar o leitor para conteúdos que também tenham relevância.

Outra ação recorrente era a criação de private blog network (PBN), que consiste na afiliação de vários blogs criando links entre si.

E, pasmem, existia (e provavelmente ainda existe) a prática da compra de links, ou seja, a cobrança inadequada por relevância. Muitas vezes, os links vinham em posts que sequer eram relacionados ao tema dos textos.

Essas práticas acabaram com o Penguin, que passou a considerar a autoridade da página e do domínio.

Pense na seguinte situação:

Um professor de dança faz uma pergunta aos alunos iniciantes. As respostas são variadas, e cada um dos estudantes possui sua própria opinião sobre o assunto.

Porém, entre os alunos, está infiltrado ninguém menos que Michael Jackson. É óbvio que sua resposta possui maior relevância, pois se trata de um dos maiores dançarinos que a humanidade já teve.

Tenha isso em mente:

Um link em um site relevante significa um posicionamento melhor. Uma referência no portal administradores.com.br, por exemplo, repassará uma autoridade maior do que um link em um blog pessoal.

Pirate

Poucos meses depois, em agosto de 2012, o buscador lançou o Pirate.

O próprio nome da atualização diz tudo: o objetivo era evitar o ranqueamento de sites que promoviam a pirataria. Ou seja, páginas com muitas denúncias de conteúdos que violam direitos autorais.

Isso mesmo, sites com downloads ou distribuição gratuita de músicas, filmes, séries, livros e outros produtos protegidos pelos copyrights.

É por causa desse update que sites de torrents, como o The Pirate Bay ou o KickassTorrents, trocam de hospedagem com regularidade. Sem isso, eles seriam pegos pelo Pirate e desindexados.

Hummingbird

No ano seguinte, em agosto de 2013, o Google lançou o Hummingbird. Ele representou uma grande reviravolta, e muitos profissionais definem o SEO como “AHDH”: antes e depois do Hummingbird.

Essa atualização tinha um propósito: a busca semântica baseada na intenção do usuário, e não mais nas palavras-chave exatas. Ou seja, a pesquisa passou a considerar sinônimos e expressões semelhantes e relacionadas.

Assim, mesmo que um internauta busque por termos não exatos, encontrará o que procura. Isso afetou mais diretamente as buscas mais longas, com dúvidas específicas.

Esse update foi um grande problema para aqueles que praticavam o keyword stuffing, já que páginas que não repetiam muitas vezes a palavra-chave — mas que respondiam as dúvidas do usuário — poderiam ter um melhor posicionamento.

Obviamente, isso fortaleceu a concorrência por palavras-chave de long tail e, até hoje, é possível encontrar novos termos de pesquisa relevantes. Um prato cheio para negócios, já que isso representa um público cada vez mais segmentado.

Aqui também foi instaurado um novo tipo de SEO, que leva em consideração a pesquisa de conversação. Basicamente é a adaptação à maneira como o usuário pesquisa, isto é, de forma mais humana.

Afinal, dificilmente alguém buscará por “horário na cidade de São Paulo”. Em vez disso, é muito mais fácil procurar por “que horas são?”.

Uma ótima maneira de descobrir como seu público faz suas pesquisas é usando o autocomplete e as palavras-chave relacionadas, presentes no próprio buscador.

Eis um post bem didático sobre o tema, caso você tenha maior interesse.

Pigeon

Em julho de 2013 era lançado o Pigeon, a 5ª atualização do Google. Trata-se de um update para beneficiar a busca local.

Isso representa uma grande transformação, pois ele pode receber diferentes resultados dependendo do ponto geográfico onde o usuário busca.

Pense no seguinte termo de pesquisa: “cruzeiro”.

Se essa busca for realizada em um local onde o turismo litoral é um ponto forte, é bem provável que queira informações acerca de um cruzeiro marítimo.

Agora, se o usuário for um torcedor do Cruzeiro, cuja maior parte dos apoiadores se concentra em Minas Gerais (um estado sem conexão com o mar), provavelmente buscará informações sobre o time citado.

Foi uma maneira esperta de cruzar os dados do Google Maps com as intenções da pesquisa do usuário.

Também auxilia muito empresas, já que o SEO local é considerado. Por esse motivo, é muito importante que negócios se cadastrem no Google Meu Negócio.

Mobile Friendly Update

Em abril de 2015, o Google lançou o Mobile Friendly Update, cujo objetivo era priorizar sites que apresentam design responsivo.

O Google observou que grande parte das pesquisas realizadas eram a partir de dispositivos móveis.

Como a prioridade sempre foi o usuário, nada mais justo que penalizar as páginas que não possuem um design amigável.

Afinal, ninguém quer acessar um site e não conseguir ter acesso ao conteúdo, não é mesmo?

Pesquisas no desktop não foram afetadas. Porém, os empreendedores precisam ter em mente que o conteúdo deve ser acessado por meio de qualquer mecanismo.

Plugins exclusivos para desktop, imagens que demoram a carregar ou se sobrepõem ao conteúdo e outros recursos on page podem afetar severamente o ranqueamento do site.

Neste post, você pode saber mais informações acerca dessa atualização.

O conceito de mobile first parece estar cada vez mais presente no cotidiano das empresas. Afinal, o número de buscas realizadas em dispositivos móveis já é maior do que nos fixos, e a tendência é que cresça cada vez mais.

Rank Brain

Lançado em outubro de 2015, o Rank Brain foi uma atualização que utiliza o machine learning (aprendizado de máquina, em português).

Se você não sabe o que é isso, não se preocupe.

Vamos explicar de maneira bem didática:

Basicamente, é a utilização de um algoritmo que, a partir do recolhimento de dados, consegue se adaptar automaticamente. Em termos bem simples, é um robô programado para pensar. Quando surgem novos dados, ele se adequa.

Quando falamos do Rank Brain, tratamos de significados. Ou seja, quando um usuário faz uma busca, o que exatamente ele quer dizer com aquilo?

Imagine que um usuário faça a consulta pelo termo “encontrar documentos”.

Ele pode estar atrás de um “achados e perdidos”, buscar documentos de seus antepassados ou simplesmente querer encontrar um arquivo específico dentre as muitas pastas que ele tem no Google Drive.

O Google identifica os resultados mais clicados e, a partir disso, sabe o que o usuário pretende ao fazer essa busca.

Deu para sacar?

Em suma, o objetivo do update é decifrar as dúvidas do usuário.

Quando lançado, o próprio Google o classificou como 1 dos 3 mais importantes fatores de ranqueamento.

Possum

Já em setembro de 2016, o Google lançou a atualização Possum. Esse foi mais um update com foco na localização — mas voltado para negócios.

Perceba que, com essa atualização, quanto mais próximo o usuário estiver de um negócio, maiores as chances de o empreendimento aparecer em um resultado de buscas.

Fred

A atualização Fred ocorreu em março de 2017. Pouco se sabe sobre esse update, mas ele foi confirmado pelo próprio Google.

A empresa se restringiu a dizer que a atualização afetaria somente àqueles que violam as diretrizes para webmaster.

Contudo, algumas pesquisas afirmam que foram aplicadas penalizações a sites cujos objetivos eram a comercialização acima da entrega do conteúdo de qualidade, como artigos voltados meramente à geração de receita por meio da veiculação de anúncios.

Como evitar ser penalizado pelas atualizações do Google

Se você chegou até aqui, provavelmente quer uma ajudinha para evitar ser penalizado pelas atualizações do Google, não é mesmo?

Por isso, a seguir, veja uma lista de ferramentas que podem ser úteis para manter o bom ranqueamento das suas páginas:

Essas são todas as atualizações do Google identificadas até o momento.

Conhecê-las significa um passo à frente da concorrência. Mais ainda se o seu negócio se adaptar a cada uma.

Apesar disso, certamente o algoritmo continuará a receber novos updates. Então é muito importante se manter atento a cada uma delas.

E aí, gostou deste post? Então que tal saber agora quais são as penalizações do Google quando um website viola as diretrizes para Webmaster? Acesse este texto e confira!

100.000 pessoas não podem estar enganadas
Deixe seu email e receba conteúdos antes de todo mundo