Volgens schattingen van Google had Penguin invloed op ongeveer 3,1% van de zoekopdrachten in het Engels, ongeveer 3% van de zoekopdrachten in talen als het Duits, Chinees en Arabisch, en een nog groter percentage in “sterk gespamde” talen. Op 25 mei 2012 onthulde Google een andere Penguin update, genaamd Penguin 1.1. Deze update, volgens Matt Cutts, voormalig hoofd van webspam bij Google, zou minder dan een tiende van een procent van de Engelse zoekopdrachten beïnvloeden. Het uitgangspunt van de update was om websites te straffen die manipulatieve technieken gebruikten om hoge rankings te bereiken. Pre-Penguin sites gebruikten vaak negatieve link building technieken om hoog te scoren en verkeer te krijgen, zodra Penguin werd uitgerold betekende dit dat inhoud de sleutel was en degenen met goede inhoud zouden worden erkend en degenen met weinig of spammy inhoud zouden worden bestraft en geen voordelen voor de ranking ontvangen. Het doel per Google was om buitensporige spammers te vangen. Naar verluidt, verloren enkele websites zoekresultaten op Google voor specifieke trefwoorden tijdens de Panda en Penguin uitrol. Google vermeldt specifiek dat doorway pages, die alleen zijn gebouwd om zoekmachine verkeer aan te trekken, tegen hun webmaster richtlijnen zijn.
In januari 2012 werd de zogenaamde Page Layout Algorithm Update (ook bekend als de Top Heavy Update) uitgebracht, die zich richtte op websites met te veel advertenties, of te weinig inhoud boven de vouw.
Penguin 3 werd uitgebracht op 5 oktober 2012 en beïnvloedde 0,3% van de zoekopdrachten. Penguin 4 (ook bekend als Penguin 2.0) werd vrijgegeven op 22 mei 2013 en trof 2,3% van de zoekopdrachten. Penguin 5 (ook bekend als Penguin 2.1) werd uitgebracht op 4 oktober 2013, beïnvloedde ongeveer 1% van de queries, en is de meest recente van de Google Penguin algoritme-updates geweest.
Google zou Penguin 3.0 hebben uitgebracht op 18 oktober 2014.
Op 21 oktober 2014 bevestigde Google’s Pierre Farr dat Penguin 3.0 een algoritme “refresh” was, zonder dat er nieuwe signalen werden toegevoegd.
Op 7 april 2015 zei Google’s John Mueller in een Google+ hangout dat zowel Penguin als Panda “momenteel de gegevens niet regelmatig bijwerken” en dat updates handmatig moeten worden gepusht. Dit bevestigt dat het algoritme niet continu wordt bijgewerkt, wat eerder in het jaar wel het geval werd verondersteld.
Het strategische doel dat Panda, Penguin en de pagina-lay-out update delen, is om websites van hogere kwaliteit bovenaan de zoekresultaten van Google weer te geven. Websites die als gevolg van deze updates een lagere ranking hebben gekregen, hebben echter verschillende kenmerken. Het belangrijkste doelwit van Google Penguin is spamdexing (inclusief linkbombing).
In een Google+ Hangout op 15 april 2016 zei John Mueller “Ik ben er vrij zeker van dat wanneer we beginnen met uitrollen, we een bericht zullen hebben om soort van te posten, maar op dit moment heb ik niets specifieks om soort van aan te kondigen.”
Penguin 4.0 (7e Penguin-update)Edit
Op 23 september 2016 kondigde Google aan dat Google Penguin nu deel uitmaakte van het kernalgoritme, wat betekent dat het in realtime updates uitvoert. Vandaar dat er niet langer aankondigingen van Google zullen zijn met betrekking tot toekomstige verversingen. Real-time betekent ook dat websites in real-time worden geëvalueerd en dat rankings in real-time worden beïnvloed. Gedurende de laatste jaren moesten webmasters in plaats daarvan altijd wachten op de uitrol van de volgende update om uit een Penguin penalty te komen. Ook is Google Penguin 4.0 meer granulair in tegenstelling tot eerdere updates, omdat het een website op URL-basis kan beïnvloeden in plaats van altijd een hele website. Tenslotte verschilt Penguin 4.0 van de vorige Penguin versies omdat het een website niet degradeert wanneer het slechte links vindt. In plaats daarvan worden de links genegeerd en tellen ze niet meer mee voor de ranking van de website. Als gevolg hiervan is er minder noodzaak om het disavow bestand te gebruiken. Google gebruikt zowel het algoritme als menselijke beoordelaars om links te identificeren die onnatuurlijk (kunstmatig), manipulatief of bedrieglijk zijn en neemt deze op in het rapport Handmatige acties voor websites.