Vuoi imparare la SEO?

La storia e l’eredità di Google Panda

Ben ritrovati sul blog di SeoRoma!

Quante volte ti sei incaponito sulla qualità del tuo progetto editoriale temendo di subire penalizzazioni da Google?

E da dove nasce questa tua preoccupazione? Probabilmente, dal rilascio anni or sono di Google Panda!

Cos’è Google Panda?

La crociata di Google a favore della valorizzazione dei contenuti di qualità ha portato nel 2011 alla messa a punto dell’update di algoritmo divenuto noto poi come Google Panda (nomignolo assegnato a partire dall’ingegnere Navneet Panda che aveva lavorato al progetto).

L’implementazione ufficiale è avvenuta il 24 febbraio 2011, ma da fine del mese di marzo dello stesso anno è divenuto applicativo nelle ricerche in lingua inglese nei vari Paesi del mondo.

Lo scopo di questo algoritmo era quello di rendere la vita difficile a tutti quei raccoglitori di contenuti (siti, aggregatori, portali di news) che ambivano solamente a posizionarsi per guadagnare tramite gli annunci pubblicitari Adsense.

Lo scopo di Google Panda quindi era quello di colpire i siti pieni di contenuti di bassa qualità che avrebbero offerto una bassa esperienza agli utenti e premiare al contempo i portali di qualità facendoli riemergere alle prime posizioni.

Alcuni dei parametri analizzati dai tester coinvolti nella valutazione e giudicati idonei a fornire segnali sulla qualità contemplavano:

  • click through rate
  • autorevolezza dell’autore
  • misure di sicurezza a tutela dei pagamenti
  • completezza degli argomenti trattati (sia a livello di prospettiva che di informazioni incluse)
  • l’ipotetico stimolo che un lettore potrebbe avere a condividere,o meno
  • presenza o meno di contenuti duplicati
  • pagine sovraottimizzate rispetto alle keyword
  • pubblicità esagerata a discapito della navigazione degli utenti
  • facilità di navigazione

I criteri che in più occasioni i portavoce di Google hanno suggerito come alla base dalle valutazioni di qualità riguardano la completezza dei contenuti e l’autorevolezza degli autori, proprio come ragionerebbe un vero utente: molte volte vengono citati come metro di paragone gli argomenti medici, che in ragione della loro delicatezza spingono i lettori a giudicare in maniera ancora più accorta.

Cosa fa Google Panda?

Lo scopo ultimo chiaramente era quello di mettere a punto un qualcosa che si avvicinasse all’idea di valutazione che un utente medio applicherebbe riguardo a un contenuto trovato in rete, per capire se sia esattamente cosa si aspetta in relazione alle premesse.

L’update Panda quindi mirava ad affossare le content farm di scarsa qualità, messe in piedi soltanto per ottenere click a scapito degli intenti di ricerca dei naviganti: tuttavia, molti ecommerce sono caduti nella sua morsa in quanto la vasta quantità di schede descrittive pubblicate configurava i siti proprio come grandi agglomerati di duplicati. Ciò ha spinto ancora di più i possessori degli store online a realizzare contenuti sempre nuovi e originali proprio per non incappare in questo genere di situazioni.

Perché Google Panda spaventa così tanto?

Come mai Google Panda è diventato praticamente una leggenda nella nutrita schiera di aggiornamenti algoritmici di Google? L’update dal nome del pacioso animale ha fatto un uso più prezioso dell’intelligenza artificiale e degli esperti umani chiamati in causa per apportare valutazioni sulla qualità effettiva dei siti scansionati.

Queste osservazioni sono state alla base dei successivi aggiustamenti che hanno ridefinito il funzionamento dell’algoritmo, allo scopo di replicare una sorta di schema di valutazioni in grado di scindere i siti di qualità da quelli scarsi.

Le penalizzazioni di Google Panda inoltre possono manifestarsi anche a distanza da mesi dalla azione incriminata, il che rende effettivamente complesso comprendere se un calo di ranking è ascrivibile all’azione del grosso animale bianco e nero oppure no.

Questa discrepanza tra la messa a punto delle azioni e le contromisure algoritmiche genera spesso panico e incertezza, non di rado si addita il Panda della disgrazia subita e non si pone ad esempio il dito contro altri fenomeni come l’incremento di link discutibili, la sovraottimizzazione delle pagine per keyword, l’esplosione di pop up a tutto schermo e via dicendo.

Panda è diventato il principale spauracchio dal quale SEO e webmaster si sentono afflitti ogni volta che avvertono un calo nel posizionamento improvvisato: subito si corre a rivedere la qualità dei propri contenuti, ci si pente di eventuali schede duplicate attribuendole ogni genere di responsabilità.

Molto spesso, invece, l’entità delle “colpe” alla base delle penalizzazioni di Panda deve essere non indifferente, e in altri casi il calo di ranking subito non è tanto consistente quanto quello che ci si aspetterebbe.

L’isteria da Panda dura da anni fino a oggi e ogni volta che viene rilasciato un nuovo update provvisto di nome – vi dice niente, Fred? – subito si corre a rileggere le linee genealogiche per rinvenire eventuali parentele con l’animale bianco e nero.

Dato che il principio alla base dell’algoritmo era la penalizzazione dei portali contraddistinti da contenuti non originali, ciò andava a discapito anche di quei siti che contenevano elementi non naturali ma funzionali ai lettori (ecommerce con schede prodotto in primis, raccolte di notizie…). Come conseguenza dell’implementazione di Panda, abbiamo avuto un ridimensionamento dell’importanza fino ad allora rivestita da fattori come il pagerank.

Come uscire da una penalizzazione di Google Panda?

Cosa fare se si viene mazzolati da Google Panda? Indubbiamente, risalire alla radice del problema, individuare i contenuti scarsi che possono affliggere l’intero portale e farlo affondare con loro.

Se la rimozione propriamente detta non è un’opzione auspicabile – ad esempio, il committente ci tiene particolarmente, oppure ci sono dei backlink che vorremmo mantenere – potremmo fonderla con un’altra o espanderne i contenuti per accrescerne la qualità.

Gioverà anche lavorare a livello della reputazione complessiva del portale – ad esempio attraverso i social network – per stimolare una presa di coscienza da parte del pubblico della qualità del sito e dei suoi autori.

Gli aggiornamenti successivi di Google Panda

Possiamo dire quindi che Google Panda, da un lato, ha rivestito il ruolo di “spauracchio” che tanto ha terrorizzato SEO e webmaster creando allarmismi (a volte giustificati, altre no), sicuramente non perfetto ma che ha avuto il merito di contrastare pesantemente coloro che lavoravano solamente nell’ottica di guadagnare attraverso i mezzucci facili, senza alcuno obiettivo di qualità in testa, ma solamente pensando al denaro facile “frodando” i visitatori.

La nomea del Panda ha spinto anche i responsabili dei siti a impegnarsi considerevolmente per non rischiare di finire nell’occhio vigile dell’animale, elevando mediamente la qualità dei siti in circolazione.

Molto frequentemente si tende ad associare un generico fenomeno di declassamento a un intervento di Panda, ma tendenzialmente quest’ultimo agisce per fenomeni di discreta rilevanza, pertanto molto più probabilmente la perdita di ranking è ascrivibile ai frequenti aggiornamenti di algoritmo – oltre 500 l’anno! – che può averci afflitto.

Ovviamente i giochi non si sono chiusi lì. Gli aggiornamenti di Google Panda si sono susseguiti nel corso degli anni. Il 18 settembre 2012 Big G confermò il nuovo aggiornamento di Panda.

Nel 2012 ha fatto la sua comparsa un altro aggiornamento, Google Penguin, e nel 2013 Google Hummingbird è entrato nello zoo di Google. Nel 2016, il nostro caro animalone è entrato a far parte del core Algorithm di Google.

A marzo 2017 molto si è parlato di un aggiornamento chiamato Fred, che molto probabilmente era un rifinimento del ben noto Panda: il fatto che fossero stati colpiti – anche se non solo – i siti di bufale aveva permesso di ascriverlo nei dettami del grande algoritmo del 2011, e di dedurre che si trattasse di interventi volti a far decrescere i siti dalle scarse qualità informative oppure dalla pessima user experience.

Altri pattern comuni ai portali mazzolati comprendevano:

  • scarso valore informativo
  • contenuto pubblicitario opprimente
  • uno stimolo spinto a monetizzare prima che a soddisfare le esigenze informative degli utenti
  • un basso gradimento dei visitatori (es. alto bounce rate e ridotto tempo di permanenza)

Tutto ciò ci fa capire quanto la lotta di Google per contrastare i contenuti poveri, inutili e di scarsa qualità è tuttora in corso, e di quanto sia importante il nostro sforzo di migliorare sempre i nostri prodotti editoriali per soddisfare il nostro pubblico (e per non venire penalizzati!).

E tu, che cosa ne pensi? Può un modello matematico comprendere verosimilmente la qualità intrinseca di un sito web? Scrivere per gli utenti è la stessa cosa di scrivere per i motori di ricerca, oppure no? Commenta questo articolo per raccontarci le tue opinioni!

Ti potrebbe interessare: