Selon les estimations de Google, Penguin a affecté environ 3,1 % des requêtes de recherche en anglais, environ 3 % des requêtes dans des langues comme l’allemand, le chinois et l’arabe, et un pourcentage encore plus important dans les langues « hautement spammées ». Le 25 mai 2012, Google a dévoilé une autre mise à jour de Penguin, appelée Penguin 1.1. Cette mise à jour, selon Matt Cutts, ancien responsable du webspam chez Google, était censée affecter moins d’un dixième de pour cent des recherches en anglais. Le principe directeur de cette mise à jour était de pénaliser les sites Web qui utilisaient des techniques de manipulation pour obtenir des classements élevés. Avant l’arrivée de Pingouin, les sites utilisaient couramment des techniques de création de liens négatifs pour obtenir un bon classement et du trafic. Une fois que Pingouin a été mis en place, cela signifie que le contenu est la clé et que ceux qui ont un bon contenu seront reconnus, tandis que ceux qui ont peu de contenu ou du contenu spammy seront pénalisés et ne recevront aucun avantage en termes de classement. L’objectif de Google était d’attraper les spammeurs excessifs. Il semblerait que quelques sites Web aient perdu des positions de recherche sur Google pour des mots clés spécifiques lors des déploiements de Panda et de Penguin. Google mentionne spécifiquement que les pages de porte, qui ne sont construites que pour attirer le trafic des moteurs de recherche, sont contraires à leurs directives pour les webmasters.

En janvier 2012, la mise à jour dite Page Layout Algorithm Update (également connue sous le nom de Top Heavy Update) a été publiée, qui ciblait les sites Web avec trop de publicités, ou trop peu de contenu au-dessus du pli.

Penguin 3 a été publié le 5 octobre 2012 et a affecté 0,3% des requêtes. Penguin 4 (également connu sous le nom de Penguin 2.0) a été publié le 22 mai 2013 et a affecté 2,3 % des requêtes. Penguin 5 (également connu sous le nom de Penguin 2.1) a été publié le 4 octobre 2013, a affecté environ 1 % des requêtes et a été la plus récente des mises à jour de l’algorithme Google Penguin.

Gogle aurait publié Penguin 3.0 le 18 octobre 2014.

Le 21 octobre 2014, Pierre Farr de Google a confirmé que Penguin 3.0 était un « rafraîchissement » de l’algorithme, sans ajout de nouveaux signaux.

Le 7 avril 2015, John Mueller de Google a déclaré dans un hangout Google+ que Pingouin et Panda « ne mettent actuellement pas les données à jour régulièrement » et que les mises à jour doivent être poussées manuellement. Cela confirme que l’algorithme n’est pas mis à jour en permanence, ce que l’on croyait être le cas plus tôt dans l’année.

L’objectif stratégique que partagent Panda, Penguin et la mise à jour de la mise en page est d’afficher des sites Web de meilleure qualité en haut des résultats de recherche de Google. Cependant, les sites qui ont été déclassés à la suite de ces mises à jour présentent des ensembles de caractéristiques différents. La principale cible de Google Pingouin est le spamdexing (y compris le bombardement de liens).

Dans un Hangout Google+ du 15 avril 2016, John Mueller a déclaré « Je suis à peu près sûr que lorsque nous commencerons à déployer, nous aurons un message à poster en quelque sorte, mais pour le moment, je n’ai rien de spécifique à annoncer en quelque sorte. »

Pingouin 4.0 (7e mise à jour de Pingouin)Edit

Le 23 septembre 2016, Google a annoncé que Google Pingouin faisait désormais partie de l’algorithme de base, ce qui signifie qu’il se met à jour en temps réel. Dès lors, il n’y aura plus d’annonces de Google relatives à de futurs rafraîchissements. Le temps réel signifie également que les sites web sont évalués en temps réel et que les classements sont affectés en temps réel. Au cours des dernières années, les webmasters devaient plutôt toujours attendre le lancement de la prochaine mise à jour pour se sortir d’une pénalité Pingouin. De plus, Google Penguin 4.0 est plus granulaire que les mises à jour précédentes, puisqu’il peut affecter un site Web sur la base d’une URL plutôt que sur la base d’un site Web entier. Enfin, Penguin 4.0 diffère des versions précédentes de Penguin car il ne rétrograde pas un site Web lorsqu’il trouve de mauvais liens. Au contraire, il écarte les liens, c’est-à-dire qu’il les ignore et qu’ils ne comptent plus dans le classement du site Web. De ce fait, il est moins nécessaire d’utiliser le fichier de désaveu. Google utilise à la fois l’algorithme et les réviseurs humains pour identifier les liens qui ne sont pas naturels (artificiels), manipulateurs ou trompeurs et les inclut dans son rapport d’actions manuelles pour les sites Web.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.