Ben ritrovati sul blog di SEORoma!
Gli addetti al settore avranno notato che nella seconda metà maggio (dal 18 o dal 20 a seconda dei settori) le serp stanno vivendo i consueti inusuali (scusate il gioco di parole) sballottamenti in occasione dei rilasci di aggiornamenti di algoritmi: prima era capitato il 7 febbraio 2017 e in seguito a marzo 2017 con Fred.
La cosa diversa dal solito è che, come nota seoroundtable non si sono viste le solite tonnellate di webmaster piangere sui forum, strapparsi i capelli al pensiero di aver causato la propria sventura con tecniche white e black hat.
Come possiamo vedere dagli studi di SemRush, ci sono stati vari picchi di variabilità nel posizionamento (sintomo che qualcosa sta bollendo in pentola), e tale fluttuazione è stata confermata anche da diversi webmaster: non si tratta sicuramente di niente al livello di Panda o Penguin o del recente Fred.
Gli esperti interpellati da Seroundtable ipotizzando che possa essere dovuto:
- alla qualità (es. pubblicità aggressiva, limitazioni alla User Experience, scadente interfaccia ecc.)
- a Panda o Fred
- ai featured snippet
I featured snippet sono stati additati come la mano che lancia il sasso, dato che in questi tempi Google sta testando l’esclusione di risultati dei siti che già compaiono attraverso i featured snippet: tuttavia, analisi svolte dai principali tool di settore in un secondo momento non sembrano supportare considerevolmente questa teoria.
Non sembrano esserci rapporti con la presenza o meno di HTTPS.
Google Update: il mio punto di vista
Nel mio piccolo, gli esperti di cui ho letto esternazioni sul gruppo di professionisti Fatti di SEO su Facebook riportano che – seppure con le differenze dovute ai rispettivi settori – la variabilità potrebbe essere correlata all’intento di ricerca, informativo o commerciale, come se gli aggiustamenti fossero rivolti a cercare di matchare in modo più efficace le esigenze di navigazione con la risposta fornita.
Secondo qsi.com, la variabilità a seconda del settore può andare dal 20-30% fino a volumi maggiori.
Colpiti i siti di retail e della produzione di beni?
Secondo RankRanger c’è stata una fluttuazione (nel loro indice da 65 a 71) che ha coinvolto l’apparizione nelle serp di principali siti di retail (BestBuy, Amazon, Overstock): mentre i nomi citati a fianco sembrerebbero avere subito una riduzione di visibilità organica, eBay sembra avere guadagnato un piccolo incremento.
Stando a quanto riportano i maggiori analisti, non sembra si tratti di un tentativo di riduzione di comparsa nelle serp dei grandi nomi della distribuzione, ma forse è il frutto di un tentativo di Big G di comprendere in maniera più efficace come fare incontrare le esigenze dei potenziali acquirenti con l’offerta.
Stando anche a quanto si legge su webmasterworld i principali portali colpiti potrebbero essere:
- gli ecommerce
- i grandi siti informativi
e questa conseguenza potrebbe essere in effetti compatibile con l’idea generale che si ha di una ridefinizione del concetto di corrispondenza tra gli intenti commerciali e informativi e i risultati proposti.
Che cosa fare a questo punto?
Dalle dichiarazione di John Mueller sappiamo che il miglioramento della qualità è un obiettivo su cui Big G vuole che puntiamo nel lungo periodo: che sia anche l’obiettivo di questo update?
Come sempre, in attesa di capirne di più, possiamo solamente continuare a lavorare su quei fattori che giovano inequivocabilmente all’autorevolezza dei portali:
- concentrarci su cosa fa la soddisfazione degli utenti, ridurre i contenuti brevi o di basso valore
- ridurre la pubblicità che rischia di offuscare la navigazione del sito
- contrastare i problemi oggettivi che danneggiano l’esperienza di navigazione
- incrementare la quota di elementi che sostengono le visite e in grado di rispondere alle esigenze dei visitatori
E tu cosa ne pensi? Commenta questo articolo per raccontarci la tua opinione!