Vuoi imparare la SEO?

La storia, gli scopi e l’eredità di Google Penguin

Google Penguin

Ben ritrovati sul blog di SeoRoma!

Google Penguin è un aggiornamento di algoritmo che nasce per premiare i siti virtuosi e mazzolare quelli che sono riusciti a scalare le serp attraverso discutibili strategie SEO, in particolare attraverso un profilo di backlink ottenuti solamente per scalare i risultati di ricerca.

L’algoritmo venne rilasciato nel 2012, a cui ne seguì una nuova versione l’anno successivo e una ancora più recente nel 2014: esso dava origine a “ondate” periodiche, non costanti, di scansioni che esponevano i siti che si erano cimentati in pratiche poco ortodosse al rischio di subire un brusco calo di ranking.

Il rollout infatti non avvenne in maniera istantanea, piuttosto si vide un rilascio periodico che portò a effetti sulle serp di ridefinizione dei risultati in maniera protratta nel tempo.

Dal 2016 Penguin lavora in tempo reale, analizza URL sospetto per URL e agisce in maniera complessiva anziché in particolari periodi dell’anno. Ciò significa che è molto più facile comprendere se lo stato attuale dei propri progetti ha generato qualche “falla” alla base della penalizzazione, mentre un tempo il calo di posizionamento avveniva anche a distanza di settimane rendendo arduo ricostruire il profilo incriminato.

I fattori di rischio per Google Penguin

Ad anni di distanza dal primo rilascio di Google Penguin, possiamo trattare con una certa serenità la lista dei fattori che esponevano ai rischi del pennuto bianco e nero dello zoo di Google.

Tra le principali tecniche contestate ci sono la keyword cannibalization (il tentativo di posizionare i propri contenuti per molteplici combinazioni in maniera esagerata) e gli unrelated backlinks.

I link in particolare sono uno dei principali segnali di allarme che esponevano ai rischi di penalizzazione: da allora, i collegamenti verso siti di poker, le scommesse online e i siti delle cartomanti, tutti quelli che potevano traviare i visitatori sono diventati estremamente rischiosi e principali indiziati (in molti casi, scusanti) degli improvvisi cali di ranking, prima ancora degli aspetti intrinsecamente legati alla qualità vera e propria dei portali.

Ugualmente pericolose si sono rivelate le tecniche di cloacking (fornire agli utenti un contenuto diverso di quello dato ai motori di ricerca) e le doorway pages (rimandare i visitatori a pagine diverse da quelle prospettate), specialmente perché questi atteggiamenti si rivelavano spesso nocivi per coloro che atterravano sul sito.

Gli easy links, più di tutto, si sono classificati come campanello d’allarme per Google Penguin: più i link si rivelavano facili da ottenere, non attinenti al tema del proprio sito e di scarsa qualità, più facilmente esponevano al rischio di penalizzazione.

Proprio come i link hanno sempre rivestito un peso speciale nell’attribuzione del valore di qualità alla base del posizionamento in serp, così essi si dimostrarono il primo fattore di rischio per coloro che li avevano ottenuti in maniera non molto naturale.

In generale, più è facile ottenere quei link (ad esempio, da directory e siti di comunicati stampa), ovvero più appaiono forzati e ottenuti senza apportare un reale valore per i lettori, più facilmente si finisce sotto la lente di ingrandimento del pinguino.

La SEO speculativa svolta in aperta contraddizione alle regole qualitative dei webmaster, che fino a quegli anni aveva prodotto risultati soddisfacenti, si rivelò una calamita per rogne: i contenuti duplicati da altri siti, mezzucci per riempire alla bene e meglio i portali, condussero all’inevitabile conseguenza.

Oggi, considero il Penguin un po’ come gli scappellotti educativi dei genitori: in un primo momento li recrimini per il dolore che ti arrecano, ma poi comprendi che erano per il tuo bene e per spingerti a comportarti meglio la volta successiva.

Alcuni degli elementi maggiormente oggetto dell’occhio critico dell’algoritmo erano:

  • i tag Title ottimizzati per troppe parole chiave
  • i contenuti pieni di parole chiave inserite in maniera forzata
  • un eccesso di link verso siti di scarsa qualità
  • i trucchetti “old style” di mimetizzazione delle parole rivolte ai motori di ricerca colorate allo stesso modo dello sfondo

Tutti elementi che tradivano una scarsa cura nella creazione di un vero e proprio sito di qualità, all’interno così come all’esterno.

Lo spam SEO finalizzato solamente a migliorare il posizionamento attraverso l’acquisizione di link in maniera non naturale cominciò a essere visto con estremo sospetto, e innumerevoli casi di penalizzazione vennero attribuiti da quel momento.

Con l’introduzione del funzionamento di Google Penguin in modalità everflux abbiamo avuto un flusso di valutazione continua che ha esposto tutti i siti a essere potenzialmente penalizzati per un profilo di backlink non naturale.

Come risolvere le penalizzazioni da Google Penguin?

Oggi la valutazione della qualità dei portali avviene in real time: autorevolezza e credibilità sono gli aggettivi sui quali ogni sito deve lavorare, sia a livello on site (costruire contenuti originali e dal linguaggio spontaneo) che off site (garantire un trend di backlink quanto più possibile naturale).

Le keyword, oggi come ieri, rivestono una grande importanza, sia per come vengono impiegate nei testi degli articoli (keyword stuffing ti dice niente?) che come anchor text nei collegamenti esterni?

Il rischio di ricevere punizioni per link ingannevoli e per la ripetizione di parole chiave in maniera ossessiva, oggi come ieri, rischia di affossare progetti con altrimenti qualche chance di emergere. Anche i siti satelliti costituiti essenzialmente per generare la parvenza di una reputazione, in realtà inconsistente, sono da utilizzare con cautela.

Per rimediare alle tecniche di SEO estrema bisogna innanzitutto comprendere quale specifica causa ha determinato il nostro calo di ranking.

Prima di tutto, occorre verificare i nostri backlink per individuare quelli più sospetti, ridurre o eliminare quelli che ci appaiono di scarsa qualità oppure non pertinenti al nostro sito. Se non è possibile, come estrema ratio, possiamo fornire a Google un file di disavow alla Search Console chiedendo la “riabilitazione”.

Se il problema consiste nella qualità dei testi, occorrerà rimediare a tutto ciò che appare come non naturale e forzato (ripetizioni di keyword in primis), dare origine a testi che appaiono genuinamente prodotti per le persone.

L’eredità di Google Penguin

Nel 2012 e nel 2013 le cose erano molto più difficili di oggi: Penguin agiva in determinati periodi, e questa asincronità tra l’attuazione dei fattori sgraditi a Google e le penalizzazioni inflitte rendeva non semplice comprendere quali fossero le cause specifiche alla base del calo di ranking.

Il 23 settembre 2016 Google annunciò che Penguin avrebbe fatto parte del suo algoritmo centrale, ovvero che avrebbe agito e sarebbe stato aggiornato in real time.

Ora il pinguinesco algoritmo lavora 24 ore su 24 e 7 giorni su 7, questo almeno ci permette di restringere il campo delle indagini degli elementi da correggere se si vuole tornare a guadagnare posizioni.

Come conseguenza di questa implacabile sentinella, è stato effettivamente ridotto il fenomeno degli spam link che permettevano a progetti editoriali non all’altezza di scalare le serp a discapito di quelli propriamente di valore. L’impatto iniziale venne stimato al 3,1% delle query in lingua inglese.

Da allora, creare contenuti davvero originali e di valore e guadagnare un profilo di backlink di qualità e coerente con il proprio ambito si mostra fondamentale per non retrocedere a lontane posizioni nelle serp.

Concentrarsi sulle esigenze e sulle preferenze degli utenti prima, e sui motori di ricerca poi, ricevette un ulteriore spinta con questo nuovo membro dello zoo di Google, pertanto, anche se con una buona dose di terrore e di paranoia anti-link, si ottenne finalmente un cambio di registro all’idea ampiamente diffusa secondo la quale con i classici trucchetti si potesse avere vita facile nel posizionarsi e guadagnare senza reali sforzi.

Ora che Penguin appartiene al core degli algoritmi di Google, dobbiamo adoperarci per mantenere una sempre eccellente qualità dei nostri progetti editoriali per dormire sonni tranquilli.

Vuoi mettere al sicuro il tuo sito da possibili penalizzazioni?

Controlla sempre con strumenti come Screaming Frog i siti ai quali punti e verifica se si tratti di portali in linea con i tuoi argomenti e dalla qualità sulla quale ti sentiresti di giurare.

Assicurati quindi che il tuo sito appaia autorevole sia a livello dei contenuti che dei segni esterni in termini di link e menzioni. Personalmente ritengo comunque che ricorrere al Disavow Tool – in pratica, una “ammissione di colpa” – dovrebbe avvenire solamente in caso di accertata problematica e quando non sussista la possibilità di far rimuovere i collegamenti incriminati.

Un trend di acquisizione link quanto più possibile naturale aiuterà a tutelarsi contro le penalizzazioni attivare da sospetti incrementi di link in tempi troppo ristretti.

E tu, che cosa ne pensi?

Sei mai stato colpito da Google Penguin, e se sì come hai agito per uscirne? Commenta questo articolo e raccontaci le tue esperienze!

Ti potrebbe interessare: