Cambiano le ricerche, cambiano gli utenti, ma il risultato resta sempre lo stesso: le posizioni su Google sono “predefinite”, con tre o al massimo quattro siti che si spartiscono la stragrande maggioranza della torta del volume di ricerca e tutti gli altri che possono competere solo per le briciole residuali. Non è solo una “sensazione”, ma quello che avviene concretamente sul motore di ricerca e che abbiamo rilevato anche con SEOZoom analizzando i dati di milioni di ricerche su Google e delle relative performance dei siti. Ne emerge in particolare il peso del brand e della fiducia che il motore di ricerca attribuisce alle pagine di tali brand.
Sempre gli stessi siti su Google? Le rilevazioni di SEOZoom
Come raccontato ad ADNKronos, l’indagine è partita dalle osservazioni di Ivano Di Biasi sui recenti andamenti delle SERP di Google, davvero semplicistici nello scegliere chi deve essere posizionato e in quale posizione.
In pratica, è facile notare sempre due o tre siti, quattro al massimo in alcuni settori, che si prendono la maggior parte del traffico e stanno nelle posizioni di vertice, mentre tutti gli altri si dividono le briciole.
Detta in termini più tecnici e con dati alla mano, la metrica del Traffic Share di SEOZoom ci rivela che i siti top player scelti da Google per ogni settore conquistano anche il 70 o 80% di tutto il traffico di ricerca, e quindi tutti gli altri siti lottano solo per quote davvero residuali e minime di clic.
C’è un altro aspetto critico: sembra che Google abbia già predefinito chi deve essere in alto per qualsiasi cosa, perché in ogni nicchia verticale ci sono sempre gli stessi siti a monopolizzare le posizioni di massima visibilità sul motore di ricerca.
L’analisi nei verticali di travel e food: traffico sempre agli stessi siti
Gli screen qui sotto evidenziano la situazione.
In ambito turismo, le query per gli hotel in Italia vedono emergere sempre Booking e Tripadvisor, che da soli raggruppano più del 50% del volume di ricerca.
Ciò vale per “hotel a Milano”
“Hotel a Napoli”
“Hotel a Roma”, ad esempio.
Il pattern è molto simile anche nel settore cucina, dove tutte le ricerche vedono emergere tre grandi colossi. Qualunque siano le parole chiave, infatti, Google dà sempre priorità a GialloZafferano, Cucchiaio e Fatto in casa da Benedetta, che oltretutto riescono a ottenere traffico anche attraverso i posizionamenti dei loro canali social.
Lo screen sopra sintetizza lo scenario per la query risotto allo zafferano. GialloZafferano conquista il 52,5% per cento del totale, da solo; Cucchiaio è secondo con il 17% e Fattoincasadabenedetta terzo a circa il 9%. Insieme fanno il 78% di tutti i clic da Google per questo intento di ricerca – e quindi tutti gli altri siti combattono appena per il 22% del traffico.
Come si vede, il livello medio di ottimizzazione è simile – non è questa la “discriminante” per ottenere visibilità.
Cambiamo query e analizziamo “torta di mele”.
Il traffic share è molto simile al precedente. In questo caso, GialloZafferano prende il 42%, Cucchiaio il 17 e il sito di Benedetta Rossi il 15%: ancora una volta, insieme raggiungono quasi i tre quarti del traffico da Google (circa 75% del totale), con pochissimo spazio per i competitor.
E anche qui l’ottimizzazione media influenza relativamente il posizionamento.
Come da caratteristica di Traffic Share, l’analisi non si limita solo alla singola keyword, ma sul più ampio dato del volume di ricerca complessivo di tutte le parole chiave che riguardano lo stesso intento di ricerca, il bisogno che spinge le persone a cercare su Google e che il motore di ricerca traduce in risultati pertinenti.
L’impatto dei canali social
Al di là della netta predominanza della quota di traffico organico conquistato, un altro elemento interessante riguarda la rilevanza dei social (almeno in ambito food): nelle query esaminate ci sono spesso risultati organici tratti appunto da piattaforme social, solitamente dai profili ufficiali dei “top3” di settore, come ci mostra anche il dettaglio dello strumento Opportunità Social.
GialloZafferano riesce a posizionarsi capillarmente per ogni sua ricetta anche con i canali social. In particolare, i suoi canali social sono praticamente sempre in top10 per le query relative a ricette.
Anche Benedetta Rossi beneficia dei profili social, anche se i suoi posizionamenti sono più legati all’entità e al brand piuttosto che a singole ricette – elemento che potrebbe essere legato alla fama “extra-social” ed extra-Web di Benedetta Rossi.
Questa forte prevalenza dei canali extra-sito significa che qualsiasi “azione” eseguita da questi due grandi brand scuote molto il social graph e i segnali sociali: quando pubblicano qualcosa, anche sui social, fanno “eco”, smuovono cose anche nel web anche a livello di link.
Analizzando uno dei competitor più forti, Cookist, vediamo invece un numero di posizionamenti social decisamente inferiore (dieci volte in meno!) che indica la ridotta autorevolezza che questo dominio e questo brand hanno per Google.
Google punta sulla Fiducia e su EEAT
Secondo Ivano Di Biasi, il fulcro di questa dinamica è nel concetto di EEAT, che sappiamo essere acronimo di Experience, Expertise, Authoritativeness, Trustworthiness (Esperienza, Competenza, Autorevolezza, Affidabilità). In pratica, si tratta dell’insieme globale di fattori e segnali che misurano quanto Google si fida e considera affidabile un sito web per posizionarlo nei suoi risultati.
La parola chiave è “fiducia“, che si lega strettamente all’autorevolezza acquisita dai domini e percepita dal motore di ricerca.
La nostra analisi sembra suggerire che Google decida quasi a priori quanto traffico debba andare a ogni sito web – e ovviamente a quale sito web – suddividendo l’intera torta del suo traffico in maniera molto sproporzionata e lasciando solo le briciole ai siti che ritiene meno affidabili e autorevoli rispetto ai suoi “top”. Basta guardare la distribuzione del traffico con Traffic Share, che diventa quindi un indicatore valido per visualizzare l’autorevolezza di un dominio per ogni argomento.
È come se, anche per riuscire a stare al passo della velocità attuale delle innovazioni tecnologiche e determinare rapidamente la veridicità dei contenuti, Google abbia semplificato le sue scelte: il ranking (e la distribuzione) è come prestabilito perché il motore di ricerca sembra aver essenzialmente deciso di puntare quasi a occhi chiusi su chi offre sempre contenuti attendibili.
È un po’ ciò che avviene nel nostro mondo fisico, dove chiunque può esprimersi, ma l’affidabilità, la veridicità e il successo di un’informazione dipendono dalla fonte che la fornisce.
Altro che volatilità in SERP!
Il commento di Ivano è molto netto: “È come se Google (azienda) avesse abbandonato Google (motore di ricerca)”. Scelti i top player per ogni settore “usciranno sempre prima loro, tutti gli altri si dividono le briciole a rotazione”.
Il nostro studio rivela infatti anche che il panorama del posizionamento organico è scisso: da un lato abbiamo gli “intoccabili”, ma dall’altro assistiamo a una dinamica di rotazione che influisce sulla visibilità dei siti che non si trovano in cima alla gerarchia.
Approfondendo l’indagine, infatti, notiamo che il posizionamento dei siti che dominano le prime posizioni nei risultati di ricerca è notevolmente stabile e statico. Questi siti, valutati da Google come i più rilevanti e autorevoli in un determinato settore, “mantengono costantemente le loro posizioni in cima alla SERP e non sembrano subire variazioni significative”, neppure in seguito ai tanti temuti aggiornamenti algoritmici.
Ben diversa è la situazione sottostante: i siti che non occupano le posizioni di vertice si trovano infatti in una sorta di limbo, inseriti in un ciclo che possiamo definire sinusoidale. In questo ciclo, le keyword associate a questi siti subiscono fluttuazioni in termini di visite, con momenti in cui generano un alto numero di visite e altri in cui sembrano meno performanti. Questo non è necessariamente il risultato di errori SEO o di scelte strategiche sbagliate, ma piuttosto di una scelta deliberata da parte di Google.
Il motore di ricerca, infatti, sembra operare una sorta di rotazione tra i siti che non sono al top, mostrando in SERP prima alcuni siti e poi altri, alternandoli. In questo modo Google riesce a dare visibilità anche ai siti che considera meno autorevoli o importanti, permettendo loro di guadagnare esposizione e traffico. Di Biasi paragona questo sistema a quello degli ADS pubblicitari, “dove il traffico residuo, quel 20-30% che non va ai siti in cima alla SERP, viene distribuito tra i siti posizionati più in basso, ognuno con una propria priorità di rotazione”.
Analisi del traffic share, le implicazioni SEO
Cosa possiamo dedurre sulla SEO?
Innanzitutto, come già dicevamo in passato, che dobbiamo dimenticare la singola parola chiave e concentrare l’attenzione sull’intera Intenzione di Ricerca dell’utente.
La migliore pagina web su un determinato argomento non è necessariamente quella che si posiziona prima per la parola chiave principale e il meccanismo non è così semplice. Altre pagine, infatti, potrebbero aver orientato i contenuti per soddisfare ogni esigenza dell’utente, cercando di coprire l’intero traffico relativo all’argomento, non solo quello legato alla singola parola chiave.
Per questo è utile usare SEOZoom, l’unico strumento che identifica l’intera intenzione di ricerca dell’utente su qualsiasi argomento e trova tutte le parole chiave e le relazioni per supportare la scrittura del contenuto perfetto nel modo che piace a Google. In particolare, è cruciale analizzare la keyword in profondità, non fermandosi solo al volume di ricerca o alla KD/KO, ma scoprire anche l’effettivo Traffic Share per vedere quale sito sta davvero vincendo la partita e che chance abbiamo di fare traffico.
Nel caso di online shoes, ad esempio, il sito web al primo posto ottiene effettivamente il 7.6% dell’intero traffico disponibile e il vincitore è il sito web al 28° posto nella SERP della migliore parola chiave, ovvero quello che semplicisticamente catalogheremo tra i perdenti, mentre invece accentra il 40% del traffico Google.
Secondo Ivano, questa situazione conferma che EEAT è diventato veramente il fattore predominante per quanto riguarda il posizionamento su Google, in particolare nel peso che ha sulla distribuzione del traffico “quanto si fida Google del sito e quanto questo sito è affidabile”. Allo stesso tempo, significa ripensare a ciò che significa “essere primi su Google”: l’obiettivo non è ottenere un posizionamento top per una singola keyword, ma cercare di diventare autorevoli sull’intero topic coperto da tutte le keyword correlate. Ad esempio, l’analisi di “online shoes” ci rivela che non è la main keyword dell’intento.
Le strategie per guadagnare visibilità
Ma cosa possono fare i siti per provare a conquistare qualche briciola in più e migliorare il loro posizionamento?
Ivano suggerisce tre strategie chiave:
- Concentrarsi sull’insieme di keyword correlate all’intento di ricerca complessivo, piuttosto che su singole parole chiave. Questo significa comprendere a fondo cosa cercano gli utenti e quali sono le loro intenzioni, per poi creare contenuti che rispondano in maniera esaustiva a queste esigenze, cercando quindi di competere per una fetta di torta di traffico più grande.
- Rafforzare il brand, anche attraverso le campagne sui social media. Un brand forte e riconoscibile aiuta a costruire fiducia e autorità, due fattori che Google considera importanti nel valutare la qualità e l’affidabilità di un sito.
- Lavorare sui link, compresi quelli interni, per costruire una rete solida che supporti l’autorevolezza del sito. I link sono come voti di fiducia che contribuiscono a stabilire la reputazione di un sito agli occhi di Google e anche quelli interni rappresentano dei perni su cui si costruisce la solidità del sito.
Seguendo queste indicazioni, è possibile aumentare l’autorevolezza percepita di un sito web e migliorare il suo posizionamento nei risultati di ricerca, uscendo così dal ciclo di visibilità limitata e guadagnando una posizione più stabile su Google.
I risultati dell’ottimizzazione: posizioni guadagnate solo con link interni
È sempre il nostro CEO a raccontare l’esito di un recente test di ottimizzazione per un sito di cucina. Ivano ha lavorato su un ristretto numero di keyword, analizzate in profondità, e ha cercato di rafforzare l’autorevolezza del brand sul tema andando a migliorare i riferimenti interni allo stesso sito.
Vale a dire: ha costruito una più solida rete di link interni, in alcuni casi andando anche a forzare con l’anchor text precisa.
Questa operazione ha dato risultati immediati: in pochi giorni il sito ha già visto crescere i posizionamenti per tutto il cluster di keyword dell’intento di ricerca.
Certo, non ha intaccato il predominio dei top3 di settore, ma ha smosso in parte la quota di traffic share precedente, segno che qualcosa si può ancora fare.