Era da diversi mesi che mancavano notizie sulle attività di Google, ma oggi ne abbiamo scoperto il motivo: al di là dell’attenzione rivolta allo sviluppo di prodotti AI come Gemini e Search Generative Experience (che in Europa non è ancora disponibile, tra l’altro), il team del motore di ricerca stava infatti lavorando a ben due aggiornamenti complessivi molto delicati, annunciati appunto in queste ore. Sono quindi partiti in contemporanea il March 2024 Core Update e il March 2024 Spam Update, che si differenziano dai classici interventi a cui ci siamo abituati negli anni e fanno focus specifico su contenuti utili e su nuove norme antispam. Scopriamo tutto quello che ci ha comunicato Google e tutto quello che questi update implicano per le nostre attività.
March 2024 Core Update: miglioramenti per riconoscere i contenuti utili
Non è un core update come gli altri, e stavolta lo dice direttamente Google nell’articolo di presentazione dell’intervento: il March 2024 Core Update è più complesso, comporta modifiche a più ranking systems attivi e richiederà un maggior tempo di implementazione.
Per la precisione, Chris Nelson del Google Search Quality team spiega che questo aggiornamento interessa più “sistemi di classificazione” utilizzati dagli algoritmi di Google (e ovviamente non si sofferma a rivelare quali) e che, soprattutto, segna un’evoluzione nel modo in cui il motore di ricerca riconosce e identifica l’utilità dei contenuti.
In pratica, come sintetizza Barry Schwartz, questo aggiornamento di marzo contiene più aggiornamenti al suo interno perché tocca diversi sistemi all’interno dell’aggiornamento principale, che saranno distribuiti nelle prossime settimane. Proprio per questa complessità, la sua implementazione completa potrebbe richiedere fino a un mese, e Nelson anticipa che “è probabile che ci saranno più fluttuazioni nelle classifiche rispetto a un normale aggiornamento del core, poiché diversi sistemi vengono completamente aggiornati e si rafforzano a vicenda”.
Scrivi contenuti davvero utili
L’obiettivo di fondo resta migliorare la qualità della ricerca, facendo emergere sempre meno pagine che sembrano create col solo scopo di attirare clic e, al contrario, premiare maggiormente i contenuti che le persone trovano effettivamente utili.
Miglioramenti alla definizione di utile: 40% di contenuti inutili in meno su Google
“Nel 2022 abbiamo iniziato a ottimizzare i nostri sistemi di classificazione per ridurre i contenuti inutili e non originali nella Ricerca e mantenerli a livelli molto bassi”, ricorda Elizabeth Tucker (Director of Product, Search) in un articolo sul blog The Keyword.
Ora il team del motore di ricerca ha compiuto un ulteriore passo in avanti e, grazie agli effetti del March 2024 Core Update, mira a “ridurre del 40% i contenuti inutili nella Ricerca Google”.
La grande novità sta nella “trasformazione” dell’Helpful Content da sistema a sé stante a componente dell’algoritmo principale di Google: detto in altri termini, ora non esiste più un segnale o un sistema utilizzato per identificare le pagine utili e quelle “inutili”, ma questa operazione viene eseguita direttamente dal sistema di classificazione principale generale e da altri algoritmi correlati, utilizzando una varietà di segnali e approcci innovativi (un po’ come avviene al meccanismo per riconoscere le informazioni affidabili da quelle che non lo sono, aggiunge Tucker).
Grazie a questa svolta, Google riuscirà in maniera migliore, più rapida ed efficace, a comprendere e determinare “se le pagine web non sono utili, hanno un’esperienza utente insoddisfacente o sembrano create per i motori di ricerca anziché per le persone”, comprendendo in questo elenco di bad practices anche “siti creati principalmente per soddisfare query di ricerca molto specifiche”.
L’effetto diretto di questi aggiornamenti sarà la riduzione della quantità di contenuti di bassa qualità nella Ricerca e il conseguente incremento di traffico indirizzato da Google verso siti utili e di alta qualità; come accennato, sulla base delle valutazioni precedenti, Google prevede che “la combinazione di questo update e dei nostri sforzi precedenti ridurrà collettivamente i contenuti di bassa qualità e non originali nei risultati di Ricerca del 40%“.
Che cosa fare se perdiamo ranking
E veniamo quindi alla domanda “inevitabile” che sorge a ogni update di Google: come reagire se il nostro sito e le nostre pagine perdono posizionamenti e visibilità?
In realtà, come ormai dovremmo sapere, non c’è nulla di nuovo o di speciale che possiamo fare per recuperare il calo di traffico, a patto di aver abbracciato la “filosofia” di Google e (tentare di) realizzare contenuti soddisfacenti destinati alle persone e potenzialmente utili. Anzi, per usare la terminologia delle linee guida del motore di ricerca, dovremmo cercare di creare contenuti utili, affidabili e incentrati sulle persone, e non scrivere col solo obiettivo di guadagnare visibilità organica e traffico.
Valgono poi le altre indicazioni classiche relative agli aggiornamenti principali: un impatto negativo sul posizionamento potrebbe non segnalare che ci sia qualcosa che non va nelle nostre pagine, ma “semplicemente” che Google ha ridefinito i suoi criteri di qualità e valutato che i contenuti dei competitor siano maggiormente in linea con le esigenze dei lettori. Inoltre, è bene ricordare che di solito un calo post-update si recupera solitamente solo dopo un altro aggiornamento principale, anche se non sono escluse possibili variazioni positive anche nelle fasi intermedie.
Google e spam: arrivano nuove norme antispam
Ma le sorprese (e le fonti di preoccupazione per i rendimenti dei siti) non finiscono qui perché, come detto, Google ha lanciato in contemporanea anche un secondo aggiornamento di marzo, destinato a migliorare il riconoscimento di pagine spam, che saranno di conseguenza retrocesse o addirittura rimosse dalle SERP.
Il cuore di questo intervento è l’introduzione di nuove policy anti-spam, che saranno che applicate attraverso algoritmi automatizzati e azioni manuali.
L’obiettivo di fondo non è solo quello di proteggere gli utenti cercando di proporre loro contenuti utili e di qualità, ma anche garantire che coloro che producono contenuti utili abbiano successo nella Ricerca rispetto a coloro che si affidano a tattiche spam o Black-Hat.
Come dice ancora Tucker, per decenni Google si è affidato “a sistemi avanzati di lotta allo spam e a policy antispam per impedire che i contenuti di qualità più bassa vengano visualizzati nei risultati di ricerca e questo lavoro continua”, ma è arrivato il momento di un giro di vite e di aggiornamenti specifici per affrontare meglio “le pratiche illecite nuove e in evoluzione che portano alla visualizzazione di contenuti non originali e di bassa qualità nella Ricerca”.
Si è quindi resa necessaria l’introduzione di una nuova e diversa policy anti-spam, con provvedimenti su altri tipi di questi comportamenti manipolativi, che consentono di intraprendere azioni più mirate e dirette.
Secondo quanto spiegato da Nelson, le norme sullo spam sono progettate “per affrontare le pratiche che possono avere un impatto negativo sulla qualità dei risultati di ricerca di Google”, e per migliorare la loro efficacia sono state aggiunte tre nuove policy contro cattive pratiche che sono molto cresciute in popolarità: uso illecito di domini scaduti, di contenuti su larga scala e della reputazione del sito ospitante.
Tre nuove policy antispam di Google
Proviamo quindi ad approfondire quali sono i comportamenti spam individuati da Google che hanno richiesto un “trattamento” speciale e diversificato. La parola utilizzata dalle linee guida per queste violazioni è “abuse“, che in italiano abbiamo tradotto (in attesa delle decisioni ufficiali dei traduttori di Google) come “uso illecito”, in riferimento al significato di “utilizzo di qualcosa con effetti nocivi o con finalità nocive”.
- Uso illecito di contenuti su larga scala
Chiamata in inglese “scaled content abuse”, questa violazione si verifica quando si creano molte pagine con lo scopo principale di manipolare le classifiche di ricerca e non aiutare gli utenti. Questa pratica illecita è in genere incentrata sulla creazione di grandi quantità di contenuti non originali, che forniscono poco o nessun valore agli utenti, indipendentemente dal modo in cui vengono creati.
Da tempo Google adotta una politica contraria all’utilizzo dell’automazione per generare contenuti di bassa qualità o non originali su larga scala, che hanno solo l’obiettivo di manipolare il posizionamento nei risultati di ricerca, e originariamente questa policy era stata progettata per affrontare solo i casi di contenuti generati su larga scala in cui era chiaro che era coinvolta l’automazione. Nello specifico, in precedenza era esplicitata la lotta ai “contenuti di spam generati automaticamente“, quelli cioè creati in modo “programmatico senza produrre nulla di originale o apportare un valore aggiunto sufficiente per le persone” (come ad esempio testo che non ha senso per il lettore, ma contiene parole chiave per la rete di ricerca; testo generato mediante appropriazione di feed o risultati di ricerca; testo generato tramite processi automatizzati senza revisione umana o selezione prima della pubblicazione, eccetera).
Oggi i metodi di creazione di contenuti su scala sono più sofisticati e non è sempre così chiaro se i contenuti vengano creati esclusivamente tramite l’automazione. Per affrontare meglio queste tecniche, Google ha quindi cambiato focus per concentrarsi sulla finalità di questo comportamento vietato, ossia la produzione di contenuti su larga scala per migliorare il posizionamento nei risultati di ricerca, indipendentemente dal come siano prodotti, ovvero se tramite automazione, sforzi umani o una combinazione di processi umani e automatizzati.
Nelle intenzioni del motore di ricerca, in questo modo sarà possibile agire su più tipi di contenuti con poco o nessun valore creato su larga scala, come le pagine che fingono di avere risposte alle ricerche più frequenti ma che, in realtà, non forniscono poi contenuti effettivamente utili e pertinenti.
Viene comunque chiarito che questa norma non implica un cambiamento nel modo in cui Google visualizza i contenuti AI in termini di spam: l’uso dell’automazione, inclusa quella eseguita tramite l’intelligenza artificiale generativa, è da tempo considerata spam se ha come scopo principale manipolare il posizionamento nei risultati di ricerca. La policy sui contenuti scaled ha solo “ampliato” i casi di applicazione, per tenere conto di metodi di creazione di contenuti su scala più sofisticati in cui non è sempre chiaro se i contenuti di bassa qualità siano stati creati esclusivamente tramite l’automazione.
La linea di fondo è che la produzione di contenuti su larga scala è illecita e vietata se eseguita allo scopo di manipolare le classifiche di ricerca, e che ciò si applica a prescindere dall’effettivo creatore dei contenuti, copywriter umano o AI.
- Uso illecito della reputazione del sito ospitante
Chiamata in inglese “site reputation abuse” o anche “Parasite SEO”, questa violazione si verifica quando un sito (generalmente ben posizionato ed eventualmente con ottimi contenuti) pubblica con poca/nessuna supervisione o coinvolgimento contenuti di bassa qualità forniti da terze parti che hanno il solo scopo di manipolare le classifiche di ricerca sfruttando i suoi segnali di classificazione e la sua solida reputazione.
Tra gli esempi di questi contenuti spam di terze parti ci sono pagine sponsorizzate, pubblicitarie, di partner o di altre terze parti che sono generalmente indipendenti dallo scopo principale del sito ospitante o sono prodotte senza una sua stretta supervisione o coinvolgimento e forniscono poco o nessun valore agli utenti. Come spiega Google, una terza parte “potrebbe pubblicare recensioni sui prestiti con anticipo sullo stipendio su un sito Web educativo affidabile per ottenere vantaggi in termini di posizionamento dal sito”, oppure “un sito medico che ospita una pagina di terze parti sui [migliori casinò] progettata principalmente per manipolare le classifiche di ricerca”: tali contenuti, posizionati in alto nella Ricerca, possono confondere o fuorviare i visitatori che potrebbero avere aspettative molto diverse per il contenuto di un determinato sito web.
Questa norma entrerà in vigore dal 5 maggio prossimo per dare ai proprietari dei siti il tempo di apportare le modifiche necessarie. Da quel momento, Google considera spam “i contenuti di terze parti di valore molto basso, prodotti principalmente a fini di classificazione e senza un’attenta supervisione del proprietario del sito web”. Se il nostro sito ospita contenuti di questo tipo dovremmo procedere a bloccare l’indicizzazione dalla Ricerca Google per evitare di violare le norme sullo spam.
Anche in questo caso c’è un importante disclaimer da comprendere. Innanzitutto, la policy non si applica a tutti contenuti di terze parti, ma solo a quelli pubblicati senza un’attenta supervisione del sito host e destinati a manipolare il posizionamento nella Ricerca. Sono quindi esclusi da questa penalizzazione – e restano leciti e ammessi – i contenuti pubblicitari del tipo “native advertising” o “pubbliredazionale”, perché questo tipo di contenuto in genere non confonde i lettori abituali del sito quando la trovano tra gli altri articoli o quando vi arrivano dai risultati di ricerca di Google. Pertanto, questi contenuti non devono essere bloccati dall’indicizzazione.
Nelson chiarisce anche quali segnali di ranking ha un sito: in realtà, i sistemi di ranking principali di Google sono progettati principalmente per funzionare a livello di pagina, utilizzando una varietà di segnali e sistemi per capire come classificare le singole pagine, ma ci sono in effetti anche alcuni segnali a livello di sito che vengono presi in considerazione. Ciò non significa però che i punteggi di “reputazione” o “autorevolezza” per i siti forniti da servizi di terze parti corrispondano precisamente a “segnali di Google o provengono da Google”.
Sul fronte pratico, poi, non è considerato spam ospitare pubblicazioni di terze parti sotto stretto coinvolgimento o revisioni: l’articolo esplicita il caso di siti con un’area coupon realizzata anche attraverso collaborazioni con terze parti. Se il sito host è attivamente coinvolto nella produzione dell’area coupon, non è necessario bloccare questi contenuti da Ricerca Google, perché i lettori dovrebbero riuscire a comprendere chiaramente come il sito ottiene i suoi coupon e come funziona, per garantire che i coupon forniscano valore ai lettori.
- Uso illecito di dominio scaduto
Chiamata in inglese “expired domain abuse”, questa violazione avviene quando i domini scaduti vengono acquistati e riutilizzati con l’intento principale di aumentare il ranking di ricerca ospitando contenuti di bassa qualità o non originali, che forniscono poco o nessun valore agli utenti.
Si sfrutta cioè il peso del brand precedente per lasciar indurre gli utenti a pensare che i nuovi contenuti proseguano la vecchia attività. In pratica, si acquisisce un nome di dominio scaduto e si rimette in piedi il sito principalmente per manipolare le classifiche di ricerca, pubblicando nuovi contenuti che forniscono poco o nessun valore agli utenti. Inoltre, questi domini generalmente sono generalmente creati solo per catturare traffico attraverso i motori di ricerca e non intercettano i visitatori in altro modo.
Ad esempio, qualcuno potrebbe acquistare un dominio precedentemente utilizzato da un sito sanitario e riutilizzarlo per ospitare contenuti di bassa qualità relativi ai casinò, sperando di avere successo nella ricerca in base alla reputazione del dominio derivante da una proprietà precedente. Oppure, pubblicare contenuti di affiliazione su un sito precedentemente utilizzato da un ente governativo, eccetera.
Utilizzata già da molti anni, ora questa pratica è apertamente considerata spam da parte di Google.
Prenditi cura del tuo sito
Questo illecito “non è qualcosa che le persone fanno accidentalmente”, ma appunto una tattica utilizzata da persone che sperano di posizionarsi bene nella ricerca con contenuti di basso valore utilizzando la reputazione passata di un nome di dominio. Google chiarisce comunque che non è vietato utilizzare un vecchio nome di dominio per un sito nuovo e originale, progettato per servire innanzitutto le persone.
Cosa succede in caso di violazioni spam
I creatori di contenuti che restano coinvolti – in maniera attiva o passiva – in queste pratiche sono ovviamente esposti a forti rischi di penalizzazione: Google sottolinea che i siti che violano le norme anti-spam potrebbero infatti avere una diminuzione di posizionamento nei risultati o addirittura non essere visualizzati affatto per effetto di un’azione manuale o di un intervento algoritmico automatizzato.
Se interessati da un’azione manuale antispam, i proprietari dei siti ricevono il “consueto” avviso tramite il loro account Search Console registrato e possono richiedere che l’azione venga riconsiderata dopo aver apportato le opportune modifiche correttive.
Nuovi modi per affrontare contenuti spam e di bassa qualità nella Ricerca
Ogni giorno “le persone utilizzano la Ricerca per trovare il meglio di ciò che il Web ha da offrire“, scrive Elizabeth Tucker: i classici sistemi di Google come norme e sistemi automatizzati per combattere gli spammer hanno dato buoni frutti, ma si è reso necessario un lavoro aggiuntivo per affrontare le tattiche emergenti che cercano di manipolare il ranking con contenuti di bassa qualità, a danno della visibilità di contenuti utili e siti Web di alta qualità.
E quindi, per migliorare la qualità della ricerca e l’utilità dei risultati, Google ha deciso di apportare miglioramenti algoritmici ai principali sistemi di classificazione per garantire che vengano visualizzate le informazioni più utili sul Web e ridurre i contenuti non originali nei risultati di ricerca. Contemporaneamente, il team ha aggiornato le norme sullo spam per mantenere i contenuti di qualità inferiore fuori dalla Ricerca, come i siti web scaduti riconvertiti in archivi di spam da nuovi proprietari o altri tipi di pagine spam.
Il consiglio finale per chi gestisce un sito arriva direttamente da Google, che sottolinea l’importanza di adattarsi tempestivamente a questi cambiamenti per mantenere o migliorare il posizionamento nei risultati di ricerca.