Secondo le stime di Google, Penguin ha colpito circa il 3,1% delle query di ricerca in inglese, circa il 3% delle query in lingue come il tedesco, il cinese e l’arabo, e una percentuale ancora maggiore di esse in lingue “altamente spammate”. Il 25 maggio 2012, Google ha presentato un altro aggiornamento di Penguin, chiamato Penguin 1.1. Questo aggiornamento, secondo Matt Cutts, ex capo del webspam di Google, avrebbe dovuto influenzare meno di un decimo di percento delle ricerche inglesi. Il principio guida dell’aggiornamento era quello di penalizzare i siti web che utilizzavano tecniche manipolative per ottenere un alto posizionamento. I siti pre-Penguin usavano comunemente tecniche di link building negativo per ottenere un alto posizionamento e traffico, una volta che Penguin è stato lanciato significava che il contenuto era la chiave e quelli con un grande contenuto sarebbero stati riconosciuti e quelli con poco o contenuto spammoso sarebbero stati penalizzati e non avrebbero ricevuto alcun beneficio di ranking. Lo scopo per Google era quello di catturare gli spammer eccessivi. Presumibilmente, alcuni siti web hanno perso posizioni di ricerca su Google per specifiche parole chiave durante il rollout di Panda e Penguin. Google menziona specificamente che le pagine doorway, che sono costruite solo per attirare il traffico dei motori di ricerca, sono contro le loro linee guida per i webmaster.

Nel gennaio 2012, il cosiddetto Page Layout Algorithm Update (noto anche come Top Heavy Update) è stato rilasciato, che ha preso di mira i siti web con troppi annunci, o troppo poco contenuto sopra le pieghe.

Penguin 3 è stato rilasciato il 5 ottobre 2012 e ha colpito lo 0,3% delle query. Penguin 4 (noto anche come Penguin 2.0) è stato rilasciato il 22 maggio 2013 e ha colpito il 2,3% delle query. Penguin 5 (noto anche come Penguin 2.1) è stato rilasciato il 4 ottobre 2013, ha interessato circa l’1% delle query, ed è stato il più recente degli aggiornamenti dell’algoritmo Penguin di Google.

Google ha riferito di aver rilasciato Penguin 3.0 il 18 ottobre 2014.

Il 21 ottobre 2014, Pierre Farr di Google ha confermato che Penguin 3.0 era un “refresh” dell’algoritmo, senza nuovi segnali aggiunti.

Il 7 aprile 2015, John Mueller di Google ha detto in un hangout di Google+ che sia Penguin che Panda “attualmente non stanno aggiornando i dati regolarmente” e che gli aggiornamenti devono essere spinti fuori manualmente. Questo conferma che l’algoritmo non viene aggiornato continuamente, come si credeva all’inizio dell’anno.

L’obiettivo strategico che Panda, Penguin, e l’aggiornamento del layout di pagina condividono è quello di visualizzare siti web di qualità superiore in cima ai risultati di ricerca di Google. Tuttavia, i siti che sono stati declassati come risultato di questi aggiornamenti hanno diversi set di caratteristiche. L’obiettivo principale di Google Penguin è lo spamdexing (compreso il link bombing).

In un Hangout di Google+ il 15 aprile 2016, John Mueller ha detto: “Sono abbastanza sicuro che quando inizieremo il roll out avremo un messaggio da pubblicare, ma al momento non ho nulla di specifico da annunciare.”

Penguin 4.0 (7° aggiornamento Penguin)Edit

Il 23 settembre 2016 Google ha annunciato che Google Penguin era ora parte dell’algoritmo principale, il che significa che si aggiorna in tempo reale. Quindi non ci saranno più annunci da parte di Google relativi a futuri rinfreschi. In tempo reale significa anche che i siti web sono valutati in tempo reale e le classifiche influenzate in tempo reale. Durante gli ultimi anni i webmaster invece hanno sempre dovuto aspettare il roll-out del prossimo aggiornamento per uscire da una penalizzazione Penguin. Inoltre, Google Penguin 4.0 è più granulare rispetto agli aggiornamenti precedenti, dal momento che può colpire un sito web su una base di URL invece di colpire sempre un intero sito web. Infine, Penguin 4.0 differisce dalle versioni precedenti di Penguin poiché non retrocede un sito web quando trova dei cattivi link. Invece sconta i link, cioè li ignora e non contano più nel ranking del sito web. Di conseguenza, c’è meno bisogno di usare il file disavow. Google utilizza sia l’algoritmo che i revisori umani per identificare i link che sono innaturali (artificiali), manipolativi o ingannevoli e li include nel suo rapporto Azioni Manuali per i siti web.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.