Por estimativas do Google, o Penguin afetou aproximadamente 3,1% das consultas em inglês, cerca de 3% das consultas em idiomas como alemão, chinês e árabe, e uma porcentagem ainda maior delas em idiomas “altamente spammed”. Em 25 de maio de 2012, o Google divulgou outra atualização do Penguin, chamada Penguin 1.1. Essa atualização, de acordo com Matt Cutts, ex-chefe de webspam no Google, deveria afetar menos de um décimo de um por cento das buscas em inglês. O princípio orientador da atualização foi penalizar os sites que estavam usando técnicas manipuladoras para alcançar altos rankings. Os sites pré-Penguin normalmente usavam técnicas de construção de links negativos para obter alta classificação e tráfego, uma vez que o Penguin foi lançado significava que o conteúdo era fundamental e aqueles com grande conteúdo seriam reconhecidos e aqueles com pouco ou nenhum conteúdo de spam seriam penalizados e não receberiam nenhum benefício de classificação. O objectivo do Google era apanhar os spammers em excesso. Alegadamente, poucos sites perderam rankings de pesquisa no Google para palavras-chave específicas durante a implementação do Panda e do Penguin. O Google menciona especificamente que as páginas de portal, que são construídas apenas para atrair tráfego dos motores de busca, estão contra as suas directrizes de webmaster.

Em Janeiro de 2012, foi lançado o chamado Page Layout Algorithm Update (também conhecido como Top Heavy Update), que visava sites com demasiados anúncios, ou muito pouco conteúdo acima da dobra.

Penguin 3 foi lançado em 5 de Outubro de 2012 e afectou 0,3% das consultas. O Penguin 4 (também conhecido como Penguin 2.0) foi lançado em 22 de maio de 2013 e afetou 2,3% das consultas. Penguin 5 (também conhecido como Penguin 2.1) foi lançado em 4 de outubro de 2013, afetou cerca de 1% das consultas, e tem sido a mais recente atualização do algoritmo do Google Penguin.

Google foi relatado ter lançado o Penguin 3.0 em 18 de outubro de 2014.

Em 21 de outubro de 2014, Pierre Farr do Google confirmou que o Penguin 3.0 foi um algoritmo “refresh”, sem novos sinais adicionados.

Em 7 de abril de 2015, John Mueller do Google disse em um encontro do Google+ que tanto o Penguin quanto o Panda “atualmente não estão atualizando os dados regularmente” e que as atualizações devem ser empurradas para fora manualmente. Isto confirma que o algoritmo não é actualizado continuamente, o que se acreditava ser o caso no início do ano.

O objectivo estratégico que o Panda, Penguin, e a actualização do layout da página partilham é exibir websites de maior qualidade no topo dos resultados de pesquisa do Google. No entanto, os sites que foram desclassificados como resultado dessas atualizações têm diferentes conjuntos de características. O principal alvo do Google Penguin é a indexação de spam (incluindo bombardeio de links).

Em um Google+ Hangout em 15 de abril de 2016, John Mueller disse: “Tenho certeza de que quando começarmos a lançar teremos uma mensagem para tipo de post, mas no momento não tenho nada específico para tipo de anúncio.”

Penguin 4.0 (7ª atualização Penguin)Edit

Em 23 de setembro de 2016, o Google anunciou que o Google Penguin agora fazia parte do algoritmo central, o que significa que ele é atualizado em tempo real. Portanto, não haverá mais anúncios do Google relacionados a futuras atualizações. Em tempo real também significa que os sites são avaliados em tempo real e os rankings são impactados em tempo real. Durante os últimos anos, os webmasters sempre tiveram que esperar pelo lançamento da próxima atualização para sair de um pinguim penalizado. Além disso, o Google Penguin 4.0 é mais granular do que as atualizações anteriores, pois pode afetar um site em uma base URL, ao contrário de sempre afetar um site inteiro. Finalmente, o Penguin 4.0 difere das versões anteriores do Penguin, uma vez que ele não desmotiva um site quando encontra links ruins. Em vez disso, ele desconta os links, o que significa que os ignora e eles não contam mais para o ranking do site. Como resultado disso, há menos necessidade de usar o arquivo de negação. O Google utiliza algoritmos e revisores humanos para identificar links que não são naturais (artificiais), manipuladores ou enganosos e os inclui em seu relatório de Ações Manuais para websites.

Deixe uma resposta

O seu endereço de email não será publicado.