Nach Schätzungen von Google betraf Penguin etwa 3,1 % der Suchanfragen in englischer Sprache, etwa 3 % der Anfragen in Sprachen wie Deutsch, Chinesisch und Arabisch und einen noch größeren Prozentsatz der Anfragen in „stark gespammten“ Sprachen. Am 25. Mai 2012 stellte Google ein weiteres Pinguin-Update mit der Bezeichnung Pinguin 1.1 vor. Nach Angaben von Matt Cutts, dem ehemaligen Leiter der Webspam-Abteilung bei Google, sollte diese Aktualisierung weniger als ein Zehntel Prozent der englischen Suchanfragen betreffen. Der Leitgedanke des Updates war es, Websites zu bestrafen, die manipulative Techniken einsetzten, um hohe Platzierungen zu erreichen. Vor der Einführung von Penguin nutzten Websites häufig negative Linkaufbau-Techniken, um hoch zu ranken und Traffic zu erhalten. Nach der Einführung von Penguin bedeutete dies, dass Inhalte der Schlüssel zum Erfolg waren und dass Websites mit guten Inhalten anerkannt wurden, während Websites mit wenig oder spammigen Inhalten bestraft wurden und keine Rankingvorteile erhielten. Das Ziel von Google war es, exzessive Spammer zu erwischen. Angeblich verloren während der Panda- und Pinguin-Einführung einige wenige Websites bei Google für bestimmte Suchbegriffe ihre Platzierung. Google weist ausdrücklich darauf hin, dass Doorway-Seiten, die nur erstellt werden, um Suchmaschinen-Traffic anzulocken, gegen seine Webmaster-Richtlinien verstoßen.

Im Januar 2012 wurde das so genannte Page Layout Algorithm Update (auch bekannt als Top Heavy Update) veröffentlicht, das sich gegen Websites mit zu vielen Anzeigen oder zu wenig Inhalt oberhalb des Falzes richtete.

Penguin 3 wurde am 5. Oktober 2012 veröffentlicht und betraf 0,3 % der Suchanfragen. Penguin 4 (auch bekannt als Penguin 2.0) wurde am 22. Mai 2013 veröffentlicht und betraf 2,3 % der Suchanfragen. Pinguin 5 (auch bekannt als Pinguin 2.1) wurde am 4. Oktober 2013 veröffentlicht, betraf etwa 1 % der Suchanfragen und war das jüngste Update des Google-Pinguin-Algorithmus.

Google soll Pinguin 3.0 am 18. Oktober 2014 veröffentlicht haben.

Am 21. Oktober 2014 bestätigte Pierre Farr von Google, dass Pinguin 3.0 eine „Auffrischung“ des Algorithmus war, bei der keine neuen Signale hinzugefügt wurden.

Am 7. April 2015 sagte John Mueller von Google in einem Google+ Hangout, dass sowohl Penguin als auch Panda „derzeit die Daten nicht regelmäßig aktualisieren“ und dass Updates manuell veröffentlicht werden müssen. Dies bestätigt, dass der Algorithmus nicht kontinuierlich aktualisiert wird, wie noch zu Beginn des Jahres angenommen wurde.

Das strategische Ziel, das Panda, Penguin und das Seitenlayout-Update gemeinsam verfolgen, besteht darin, qualitativ hochwertigere Websites an der Spitze der Google-Suchergebnisse anzuzeigen. Die Websites, die aufgrund dieser Updates herabgestuft wurden, weisen jedoch unterschiedliche Merkmale auf. Das Hauptziel von Google Penguin ist Spamdexing (einschließlich Linkbombing).

In einem Google+ Hangout am 15. April 2016 sagte John Mueller: „Ich bin mir ziemlich sicher, dass wir, wenn wir mit dem Rollout beginnen, eine Nachricht veröffentlichen werden, aber im Moment habe ich nichts Konkretes anzukündigen.“

Penguin 4.0 (7. Penguin-Update)Bearbeiten

Am 23. September 2016 gab Google bekannt, dass Google Penguin nun Teil des Kernalgorithmus ist, was bedeutet, dass er in Echtzeit aktualisiert wird. Daher wird es keine Ankündigungen von Google mehr geben, die sich auf zukünftige Aktualisierungen beziehen. Echtzeit bedeutet auch, dass Websites in Echtzeit bewertet werden und sich das Ranking in Echtzeit auswirkt. In den letzten Jahren mussten Webmaster stattdessen immer auf die Einführung des nächsten Updates warten, um einer Penguin-Abstrafung zu entgehen. Außerdem ist Google Penguin 4.0 im Gegensatz zu früheren Updates granularer, da es sich auf eine Website auf URL-Basis auswirken kann, anstatt immer eine ganze Website zu betreffen. Schließlich unterscheidet sich Pinguin 4.0 von früheren Pinguin-Versionen, da eine Website nicht herabgestuft wird, wenn sie schlechte Links findet. Stattdessen werden die Links abgewertet, das heißt, sie werden ignoriert und zählen nicht mehr für das Ranking der Website. Infolgedessen ist es weniger notwendig, die Disavow-Datei zu verwenden. Google nutzt sowohl den Algorithmus als auch menschliche Prüfer, um unnatürliche (künstliche), manipulative oder betrügerische Links zu identifizieren und nimmt diese in seinen Bericht über manuelle Maßnahmen für Websites auf.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.