Lo aspettavamo da mesi – ne parlava ad esempio il nostro Ivano Di Biasi nel suo “SEO for AI” delineando la SEO del futuro – e il debutto ufficiale non poteva che essere accolto da un’eco fortissima e da un mix di interesse, speranze e preoccupazioni. SearchGPT è finalmente realtà e dal 31 ottobre è partito il primo motore di ricerca interamente basato sull’intelligenza artificiale. La promessa è ambiziosa: OpenAI lo ha presentato come risposta innovativa all’esigenza di recuperare informazioni in tempo reale, ma soprattutto come strumento in grado di assicurare risposte precise, in tempi rapidi e con una robusta capacità di comprensione delle domande più complesse, trasformando l’esperienza di ricerca in qualcosa di più conversazionale e immersivo. Un cambiamento significativo per chi è abituato ai tradizionali motori come Google, che resta l’attuale dominatore del campo ma si trova anche di fronte a limiti e ostacoli vari, compresa la sfida tecnologica di un algoritmo capace di adattarsi di volta in volta alle esigenze specifiche di ogni singola query. Andiamo allora a scoprire che cos’è SearchGPT, come funziona e soprattutto in che modo questo cambiamento influisce sulla SEO e quali nuove opportunità si aprano per chi crea, gestisce e ottimizza contenuti per i motori di ricerca.
Che cos’è SearchGPT
SearchGPT è il motore di ricerca basato su intelligenza artificiale sviluppato da OpenAI, progettato per rispondere alle query degli utenti in modo diretto, conversazionale e contestuale. A differenza dei motori di ricerca tradizionali, che presentano un elenco di link ordinati secondo algoritmi di ranking, SearchGPT punta a fornire risposte precise alle domande, riorganizzando e sintetizzando le informazioni in un’unica risposta elaborata dall’AI.
Le sue caratteristiche principali includono la capacità di comprendere e interpretare query complesse, offrendo fonti documentate e citazioni integrate direttamente nel testo delle risposte. Questo sistema si distingue per l’interazione dinamica con l’utente, poiché permette di fare ulteriori domande per ottenere maggiori approfondimenti senza dover riformulare interamente la query iniziale.
SearchGPT è stato annunciato per la prima volta a luglio 2024 come prototipo in fase di sperimentazione limitata a un gruppo selezionato di utenti. Successivamente, il 31 ottobre 2024, OpenAI ha lanciato ufficialmente il motore di ricerca, rendendolo disponibile a un pubblico molto più ampio e delineando una sfida sempre più concreta alla predominanza di Google Search nell’ambito della ricerca online.
Le caratteristiche di SearchGPT: spiegazione e funzionalità principali
Il funzionamento di SearchGPT si basa sulla combinazione tra i modelli di linguaggio evoluti sviluppati da OpenAI (specialmente GPT-4 e GPT-4o) e un processo di ricerca in tempo reale sui contenuti disponibili sul web.
L’obiettivo di SearchGPT è rispondere direttamente a una query con un risultato ben formulato, che integri il contenuto delle pagine web senza limitarsi a mostrare un semplice elenco di fonti. Questo rende l’interazione con il motore di ricerca molto più conversazionale rispetto al tradizionale sistema di ricerche.
Le risposte fornite da SearchGPT includono anche citazioni trasparenti delle fonti, collocate in una barra laterale o all’interno del testo, che rendono possibile l’esplorazione delle informazioni in profondità. Questo è un punto interessante, perché rappresenta un primo tentativo concreto di risolvere le ambiguità storiche dell’intelligenza artificiale legata alla ricerca (ad esempio, le cosiddette “allucinazioni” comuni nei modelli AI, in cui vengono generate informazioni non accurate o inventate).
Gli utenti hanno anche la possibilità di fare domande successive, in modo da approfondire i dettagli della risposta principale, rendendo ogni processo di ricerca una sorta di conversazione continua. Questo è uno degli aspetti più innovativi di SearchGPT, che si focalizza non solo sull’efficienza della risposta, ma anche sulla qualità dell’interazione.
Come funziona SearchGPT, il motore di ricerca basato sull’intelligenza artificiale
Come detto, SearchGPT si differenzia dai motori di ricerca tradizionali per come gestisce i risultati delle ricerche: invece di limitarsi a proporre un elenco di link, ordinati in base a criteri di ranking stabiliti dagli algoritmi, SearchGPT offre risposte conversazionali, sintetiche e costruite attorno alla comprensione semantica della query. Questo lo rende uno strumento diverso rispetto alle SERP classiche di Google, più orientato a risolvere direttamente l’esigenza dell’utente, senza necessità di approfondire risposte in decine di risultati non del tutto pertinenti.
Al contrario di Google, che posiziona le pagine web in alto o in basso a seconda di una molteplicità di fattori legati all’indicizzazione e ai segnali del sito, SearchGPT non sembra seguire esclusivamente una logica di ranking dedotta da un’analisi algoritmica standard. Preferisce, invece, elaborare direttamente il contesto della domanda, fornendo una risposta unitaria su cui l’utente può poi intervenire con domande follow-up per maggiore precisione o approfondimento. In sostanza, SearchGPT abbina la velocità dell’elaborazione automatica con uno sviluppo più naturale della ricerca, che si articola attraverso un dialogo continuo.
Gli aspetti tecnici del funzionamento di SearchGPT
Dal punto di vista tecnico, SearchGPT si appoggia fortemente a modelli di linguaggio già noti sviluppati da OpenAI come GPT-4, aggiornandosi in tempo reale con nuove funzionalità e accesso a contenuti più recenti grazie alla sua connessione al web.
Questo motore di ricerca AI non dispone, tuttavia, di uno spider autonomo capace di scansionare e indicizzare l’intero web come fanno tradizionalmente motori quali Google o Bing. Il sistema, infatti, adotta un approccio ibrido: parte dei dati e delle informazioni grezze proviene da Bing, mentre il resto viene raccolto grazie a bot proprietari come ChatGPT-User Agent o OAI-SearchBot, che operano in base alle interazioni degli utenti o specifici trigger attivati durante le conversazioni.
Le analisi e i test condotti nel corso dei mesi hanno confermato che Bing rappresenta il centro nevralgico degli indici utilizzati da SearchGPT. In una AMA su Reddit del 31 ottobre 2024, il Vicepresidente dell’ingegneria di OpenAI ha spiegato che, sebbene SearchGPT impieghi tecnologie e servizi di ricerca diversificati, Bing gioca ancora un ruolo predominante nel recupero dei risultati web di base. Questo implica che molti dei risultati offerti da SearchGPT derivano direttamente dall’indice di Bing, quindi essere adeguatamente indicizzati su Bing ha implicazioni profonde anche per quanto riguarda la visibilità su SearchGPT.
Ad ogni modo, un’analisi di Dan Taylor ha rilevato differenti discrepanze nei risultati: ad esempio, SearchGPT ha citato fonti che non rientravano nei primi 100 risultati di Bing o ha fornito risposte di natura diversa rispetto a Bing stesso. Questo significa che ottimizzare solo per Bing non garantisce una presenza visibile su SearchGPT, rendendo ogni query soggetta a un’ulteriore elaborazione AI che potrebbe portare alla citazione di contenuti non indicizzati nei canali tradizionali.
Questa integrazione tecnologia implica che SearchGPT non segua la logica del semplice ranking di contenuti in alto o in basso, come avviene con Google. Piuttosto, l’intelligenza artificiale pone maggiore enfasi sulla pertinenza semantica, cercando di “comprendere” il contesto della query per fornire risposte più rilevanti. Pertanto, la strategia SEO per SearchGPT richiede una doppia attenzione: ottimizzare il posizionamento su Bing, ma anche assicurarsi che i contenuti siano semanticamente ricchi e rispondano efficacemente alle esigenze degli utenti di SearchGPT .
Un altro aspetto chiave riguarda la monetizzazione. A differenza di Google, che basa il suo modello di business sull’advertising SEA, SearchGPT è ancora in una fase iniziale sotto questo profilo. Al momento non ci sono annunci pubblicitari integrati nelle risposte alle query, ma è probabile che OpenAI in futuro esplori opzioni di monetizzazione commerciale, introducendo forme di ads sponsorizzate o meccanismi di partnership customizzati per settori specifici, come viaggi o shopping. Tuttavia, è interessante segnalare che sono emersi i primi segnali di un processo di monetizzazione indiretta: come riportato da recenti test, per query commerciali specifiche SearchGPT linka a recensioni affiliate. Questo potrebbe indicare una nuova direzione in cui l’IA di OpenAI sta esplorando modelli di revenue integrati, meno invasivi rispetto agli annunci tradizionali, ma comunque redditizi per la piattaforma e i publisher affiliati. L’inclusione dei link di affiliazione suggerisce che potrebbe essere solo il primo passo verso una monetizzazione pienamente sviluppata, in cui shopping ads o sponsorizzazioni potrebbero diventare centrali nel processo di ricerca.
Di conseguenza, per chi si occupa di SEO è fondamentale monitorare sia le performance su Bing che l’evoluzione di SearchGPT, dato che la visibilità sui due motori è strettamente connessa, e produrre contenuti ottimizzati per entrambi diventa cruciale per mantenere un vantaggio competitivo nel panorama AI-driven della ricerca online.
Un diverso approccio con editori e siti
Un’altra caratteristica distintiva è l’approccio di OpenAI nella collaborazione con editori e creatori di contenuti. Secondo quanto comunicato già in fase di presentazione del progetto, a luglio 2024, SearchGPT è stato sviluppato in stretta collaborazione con diverse testate giornalistiche e piattaforme di contenuti, assicurando che le informazioni evidenziate siano di alta qualità e affidabili. Gli editori hanno anche la possibilità di gestire come i loro contenuti appaiano nei risultati di ricerca, offrendo un controllo e una trasparenza maggiori rispetto a molti altri motori di ricerca.
OpenAI sembra quindi aver tratto insegnamento dagli errori di Google (o quanto meno dalle ataviche polemiche riguardo il rapporto tra editori e la compagnia di Mountain View) e ha preso una strada marcatamente diversa. Il post sul blog sottolinea che SearchGPT è stato sviluppato in collaborazione con vari partner di notizie, che includono organizzazioni come i proprietari di The Wall Street Journal, The Associated Press e Vox Media, la società madre di The Verge, che hanno fornito feedback preziosi e che continueranno a essere ascoltati per nuovi input.
OpenAI sta inoltre “lanciando un modo per gli editori di gestire come appaiono in SearchGPT, offrendo loro più opzioni”: aspetto importante, SearchGPT riguarda la ricerca e non è collegato all’addestramento dei modelli di intelligenza artificiale generativa di OpenAI. I siti possono apparire nei risultati di ricerca anche se scelgono di non partecipare all’addestramento dell’IA generativa, chiariscono dalla compagnia.
Allo stesso modo, quindi, l’azienda ha evitato di incappare nelle problematiche in cui è invece rimasto invischiato il rivale Perplexity – accusato nel mese di giugno 2024 da Forbes per aver utilizzato nei suoi riassunti AI pezzi di contenuto senza autorizzazione né citazione e, successivamente, da Wired per il mancato rispetto delle istruzioni contenute nei file robots.txt dei siti scansionati. Ecco perché SearchGPT viene presentato come un deployment più responsabile e misurato, e viene sottolineato che ci saranno “citazioni e collegamenti in modo prominente” ai publisher nelle ricerche con “attribuzione chiara, in linea e nominativa”, anche per consentire agli utenti di sapere da dove proviene l’informazione e possano rapidamente accedere a più risultati in una barra laterale con link alle fonti.
Come ha detto Nicholas Thompson, CEO di The Atlantic, “la ricerca AI diventerà uno dei modi chiave in cui le persone navigano su Internet, ed è cruciale, in questi primi giorni, che la tecnologia sia costruita in modo da valorizzare, rispettare e proteggere il giornalismo e gli editori”.
Come gestire SearchGPT: impostazioni e controllo delle informazioni
Per interagire in modo efficace con SearchGPT, i gestori di siti web e i professionisti della SEO devono essere consapevoli delle logiche tecniche che influenzano il funzionamento di questo motore di ricerca basato su intelligenza artificiale. Uno degli strumenti principali a disposizione degli editori è la capacità di gestire quali informazioni vengono reperite e utilizzate da SearchGPT, sfruttando tecniche standard di gestione come il file robots.txt.
Poiché SearchGPT utilizza Bing come fonte primaria di indicizzazione per la maggior parte dei risultati, adottare una strategia accurata nell’impostazione del file robots.txt è essenziale per determinare come il sito interagisce con questo motore di ricerca. Allo stato attuale, Bing e OpenAI condividono parte delle informazioni estratte dai web crawler, e quindi alcune impostazioni fatte a livello di robots.txt potrebbero influenzare direttamente la visibilità su SearchGPT, così come nelle SERP di Bing.
- Impostazione di robots.txt per SearchGPT
Per i gestori di contenuti che vogliono controllare il modo in cui SearchGPT accede e utilizza le informazioni sul proprio sito, è fondamentale capire il funzionamento dei bot AI utilizzati da OpenAI. Specifici user agents operano separatamente da quelli di Bing e possono essere gestiti in modo ottimale attraverso le righe di comando nel file robots.txt .
Alcuni dei principali bot che SearchGPT utilizza includono:
- OAI-SearchBot. Questo bot è responsabile per la ricerca in SearchGPT. Se vogliamo permettere che i contenuti del sito vengano utilizzati per fornire risposte dagli algoritmi avanzati di SearchGPT, dobbiamo assicurarci di non impedire l’accesso attraverso il file robots.txt.
- ChatGPT-User. Gestisce le interazioni degli utenti su ChatGPT e personalizza la modalità di utilizzo delle informazioni per aiutare i modelli di intelligenza artificiali a rispondere a determinati tipi di query.
- GPTBot. Anche se non strettamente collegato all’attività di SearchGPT, questo user agent viene utilizzato nei modelli generativi per raccogliere informazioni utili per l’addestramento dell’intelligenza artificiale generativa. Come regola base, possiamo scegliere di consentire l’accesso a GPTBot se desideriamo che i contenuti siano inclusi nell’addestramento per le risposte AI.
Ecco come un file robots.txt ottimale potrebbe essere configurato per gestire questi bot:
User-agent: OAI-SearchBot Allow: / User-agent: ChatGPT-User Disallow: /protected-directory/ User-agent: GPTBot Disallow: /
Con questa configurazione, il crawler di SearchGPT (OAI-SearchBot) può indicizzare l’intero sito, mentre possiamo scegliere di escludere alcune sezioni sensibili attraverso ChatGPT-User o impedire del tutto l’accesso a GPTBot se non vogliamo che i contenuti vengano usati per migliorare l’addestramento dei modelli di intelligenza artificiale futura. Nota bene: l’uso dei bot di OpenAI per l’indicizzazione non comporta lo stesso tipo di contrasto o impatto della SEO tradizionale, ma piuttosto determina quali pezzi di informazioni verranno utilizzati per alimentare gli algoritmi AI nel rispondere alle query.
Cosa succede se il sito viene penalizzato da Bing?
Un aspetto critico emerso dalle analisi condotte dai professionisti SEO nelle prime settimane di funzionamento di SearchGPT è il ruolo centrale di Bing nel determinare la visibilità dei contenuti su questo motore. La principale implicazione è che se un sito subisce una penalizzazione da Bing è molto probabile che lo stesso venga escluso dai risultati di SearchGPT, poiché quest’ultimo si basa sull’indice di Bing per la maggior parte dei risultati di ricerca. I problemi tecnici legati all’indicizzazione su Bing, come penalità per contenuti duplicati o bassa qualità del sito, quindi, potrebbero avere effetti collaterali immediati anche su SearchGPT.
Per questo motivo, mantenere una buona qualità dei contenuti e seguire le migliori pratiche relative alla SEO tecnica non solo migliora il posizionamento su Bing, ma garantisce che il sito non venga penalizzato o escluso da SearchGPT. È fondamentale ottimizzare anche per Bing, monitorando feed e eventuali penalizzazioni tramite strumenti come Bing Webmaster Tools, per evitare perdite di visibilità su entrambi i motori di ricerca.
Inserire dinamicamente indicazioni per SearchGPT in base ai contenuti
I gestori di siti che lavorano con contenuti diversificati hanno la possibilità di controllare dinamicamente il comportamento di SearchGPT: se ci sono pagine che preferiamo escludere dalla ricerca AI ma non dalle SERP tradizionali di Bing o Google, possiamo aggiungere direttive specifiche per quei contenuti, limitando solo alcuni algoritmi AI:
User-agent: * Disallow: /private/ Allow: /public/ User-agent: OAI-SearchBot Disallow: /public/private/
Questa configurazione permette maggiore granularità su come strutturare l’accesso al contenuto, garantendo che le sezioni critiche o protette rimangano isolate dall’AI. È possibile sfruttare al meglio questo tipo di impostazione in base alle esigenze editoriali, soprattutto se si lavora con informazioni che potrebbero non essere adatte all’elaborazione delle AI di OpenAI.
In generale, la chiave per gestire al meglio SearchGPT è mantenere sotto controllo le preferenze in robots.txt e tenere sotto osservazione i risultati di istruzioni specifiche in Bing per rispondere in tempo reale a eventuali penalizzazioni o modifiche del flusso di indicizzazione.
Come si usa il motore di ricerca SearchGPT
SearchGPT, l’integrazione della ricerca web basata su intelligenza artificiale dentro ChatGPT, è semplice e intuitivo, accessibile sia da browser che tramite le app mobile e desktop. La funzione è stata progettata per migliorare l’interazione degli utenti con i contenuti presenti sul web, consentendo di ottenere risposte più immediate rispetto ai tradizionali motori di ricerca.
Per accedere a SearchGPT gli utenti possono sfruttare l’interfaccia di ChatGPT, attualmente disponibile per gli abbonati ChatGPT Plus e ChatGPT Team. Quando si avvia una conversazione all’interno di ChatGPT, basta premere sull’icona del globo stilizzata accanto alla barra in cui si inserisce la query. Il globo si colorerà di blu una volta attivata la modalità di ricerca web. È anche possibile chiedere all’intelligenza artificiale di eseguire una ricerca su Internet semplicemente attraverso il prompt testuale, ad esempio digitando “effettua una ricerca web su [argomento]”.
Una volta inserita la query, SearchGPT scansiona i risultati più rilevanti presenti nel web e restituisce una risposta completa, articolata in un linguaggio naturale, arricchita da link a fonti pertinenti. La particolarità di SearchGPT è la sua capacità di citare fonti attendibili direttamente nelle risposte che fornisce, offrendo agli utenti la possibilità di approfondire i risultati. Questi collegamenti appaiono in una barra laterale o in calce alla risposta e permettono di visitare i siti da cui l’intelligenza artificiale ha tratto le informazioni.
Un aspetto interessante di SearchGPT è che si possono fare domande di follow-up alla risposta ottenuta, senza dover riformulare il contesto della query iniziale. Questo trasforma l’interazione da un tradizionale “clicca su un link” a una conversazione che evolve man mano che si approfondisce l’argomento, rendendo l’esperienza di ricerca simile a quella di un assistente personale più che di un motore di ricerca classico.
Inoltre, SearchGPT supporta la geolocalizzazione: quando le query riguardano esigenze specifiche come ristoranti o punti di interesse vicini, l’AI può raccogliere e condividere informazioni dalla posizione geografica generale dell’utente, per offrire risposte più personalizzate e localizzate (ad esempio, mostrando le previsioni del tempo locali o suggerendo ristoranti nelle vicinanze). Gli utenti possono gestire questo tipo di interazione attivando o disattivando le impostazioni di localizzazione.
Un’altra modalità utile per usare SearchGPT è l’integrazione tramite browser, grazie all’estensione ufficiale di ChatGPT per Chrome. Installando l’estensione, diventa possibile eseguire ricerche direttamente dalla barra degli indirizzi di Chrome, con una conseguente apertura della conversazione all’interno dell’interfaccia di ChatGPT Search. Questo consente anche agli utenti non abbonati di testare una versione semplificata del motore di ricerca AI, rendendo ancora più facile l’accesso alle ricerche basate su intelligenza artificiale.
Infine, l’impatto su chi produce contenuti online non dovrebbe essere trascurato: SearchGPT cita sempre le fonti, e come visto prima i publisher possono controllare come i propri contenuti vengono visualizzati impostando correttamente file come robots.txt per decidere il comportamento del motore AI durante la scansione. Questa trasparenza è pensata per evitare i problemi riscontrati da altri motori AI, come ad esempio l’uso improprio o non attribuito di contenuti.
Motori di ricerca a confronto: SearchGPT vs Google
Con queste premesse, SearchGPT si pone ambiziosamente come alternativa a Google e ad altri motori di ricerca storici, portando una ventata di innovazione nel settore della ricerca online.
La promessa di un’interazione più fluida e naturale, unita alla precisione e alla rilevanza delle risposte, segna un potenziale punto di svolta su come gli utenti cercano e interagiscono con le informazioni web.
Le differenze tra SearchGPT e Google si manifestano principalmente nell’approccio alla ricerca e nella presentazione dei risultati. Google, da anni dominatore incontrastato del settore, si basa su algoritmi complessi per indicizzare e classificare miliardi di pagine web, restituendo agli utenti una lista di link ordinata per rilevanza. Questa metodologia, tuttavia, implica spesso la necessità di navigare tra molti risultati per trovare informazioni precise e pertinenti. Al contrario, SearchGPT riduce significativamente questa complessità offrendo risposte dirette e concise, supportate da fonti verificate.
Per meglio dire: invece di restituire una lista semplice di link, SearchGPT cerca di organizzarli e darvi un senso. In uno degli esempi forniti da OpenAI, il motore di ricerca riassume i suoi risultati sui festival musicali e poi presenta brevi descrizioni degli eventi, seguite da un link di attribuzione.
Un aspetto fondamentale che distingue SearchGPT è la sua capacità di sostenere conversazioni contestuali e semantiche. Quando gli utenti interagiscono con Google, una nuova query significa generalmente un nuovo inizio, come nel fenomeno del pogo sticking che spesso porta alla ridefinizione della ricerca. Invece, SearchGPT è in grado di ricordare il contesto delle domande precedenti, consentendo un dialogo continuo e più naturale. Questo riduce la necessità di ripetere o riformulare continuamente le query per ottenere risposte pertinenti, migliorando l’efficienza e la fluidità della ricerca.
SearchGPT incorpora anche un elemento di personalizzazione basato sull’intelligenza artificiale che interpreta le intenzioni dell’utente in modo accurato. Con l’accesso in tempo reale alle informazioni, SearchGPT è in grado di fornire risposte aggiornate e contestualizzate, un’area in cui Google ha storicamente dimostrato delle lacune, soprattutto su argomenti che evolvono rapidamente. Inoltre, le risposte fornite da SearchGPT sono corredate da attribuzioni chiare, con link diretti alle fonti, offrendo trasparenza e facilità di verifica, aspetto che a volte può risultare meno evidente nei risultati di ricerca di Google.
Sul fronte della collaborazione con gli editori, SearchGPT adotta un approccio proattivo per assicurarsi che le informazioni fornite siano di alta qualità e rispettose del lavoro degli autori. OpenAI ha collaborato strettamente con vari editori e creatori di contenuti per garantire che i loro lavori siano rappresentati accuratamente e benefici della visibilità generata dalle ricerche. Gli editori hanno la possibilità di gestire come i loro contenuti appaiono nei risultati di ricerca, decidendo se desiderano partecipare all’addestramento dei modelli di intelligenza artificiale o optare semplicemente per la visibilità organica.
Google, pur avendo fatto passi avanti nell’integrazione di informazioni da fonti editoriali attraverso funzioni come gli snippet in primo piano, non offre lo stesso livello di controllo diretto agli editori. Questo porta talvolta a conflitti tra la visibilità dei contenuti originali e l’uso che ne fanno gli strumenti di ricerca Google, con l’accusa che Google talvolta cannibalizza il traffico destinato ai siti web degli editori.
Il problema di Google: lo status quo e la monetizzazione
Insomma, mantenendo queste premesse siamo di fronte davvero a qualcosa che potrebbe diventare una minaccia significativa per Google – che sta tentando di integrare funzionalità di AI nel suo motore di ricerca, temendo che gli utenti si spostino su prodotti concorrenti.
Tuttavia, come spiegato anche da Ivano in una recente intervista, il colosso di Mountain View è bloccato in una posizione delicata: da un lato, possiede una tecnologia AI avanzata,e dall’altro è vincolato a un modello di business che dipende fortemente dalle pubblicità e dai contenuti generati dai publisher. Questo modello, basato sugli annunci pubblicitari (ads) e sulle SERP tradizionali, verrebbe sconvolto se l’AI dovesse essere integrata pienamente nelle sue funzioni di ricerca.
Per questo, ha inizialmente sperimentato l’integrazione dell’AI nelle sue SERP con la Search Generative Experience (SGE), poi chiamata AI Overviews, ma questa tecnologia, per quanto avanzata, non è stata completamente implementata. Il motivo è che farlo andrebbe a compromettere il suo core business: se Google iniziasse a fornire risposte complete direttamente tramite l’intelligenza artificiale, ridurrebbe drasticamente il bisogno di cliccare sui link sponsorizzati o visitare i siti web dei publisher, eliminando di fatto la fonte principale dei suoi introiti pubblicitari.
Quindi, la sfida per Google – da cui dipende anche il suo stesso futuro come motore di ricerca – sta nel trovare un modello di business che integri efficacemente l’AI senza sacrificare le entrate pubblicitarie. Se Google riuscirà in questa impresa, potrà continuare a dominare il panorama della ricerca online. Se invece non troverà una soluzione adeguata, potrebbe lasciare spazio a nuovi attori che non sono vincolati dagli stessi problemi economici e strutturali. Questi nuovi player, grazie alle loro tecnologie AI, potrebbero diventare i motori di ricerca del futuro, ridefinendo completamente le dinamiche del settore.
Le contromosse di Google: AI Overviews e Grounding
Per tamponare i rischi e per innovare comunque Search, Google ha iniziato ormai da mesi a implementare un’integrazione significativa di intelligenza artificiale all’interno della sua struttura tradizionale. I modelli di intelligenza artificiale Gemini, utilizzati per generare le nuove AI Overviews (funzionalità di recente estese a oltre 100 Paesi del mondo, da cui però è ancora esclusa l’Europa) consentono di rispondere non solo a domande semplici, ma anche a query complesse e multilivello. Queste nuove capacità permettono agli utenti di ottenere risposte dirette arricchite dal contesto specifico delle loro ricerche, con una struttura multi-step che organizza le informazioni e le rende facilmente esplorabili. Ad esempio, Google permette di eseguire ricerche come “trova i migliori studi di yoga o pilates a Boston e mostra i dettagli delle offerte introduttive”, e il modello AI organizzerà in modo efficiente risultati con descrizioni dettagliate e link a fonti verificate.
Questo apre un universo di AI-organized search results, in cui non solo le risposte dirette sono superiori, ma anche l’accesso a risorse esterne (come siti dei publisher) viene incentivato. Google, grazie al continuo aggiornamento dei suoi sistemi di indicizzazione e alla multimodalità del suo motore di ricerca, riesce ad assicurarsi che publisher, organizzazioni e fonti diversificate restino visibili e accessibili. Anzi, grazie al nuovo layout AI-organized, i link interni distribuiti nei testi delle AI Overviews ricevono un numero maggiore di clic, come spiegato dal team di Google. Questo risulta in un aumento complessivo del traffico verso siti affidabili, molto apprezzato sia dagli utenti che dai creatori di contenuti.
Ancor di più, sempre lo scorso 31 ottobre Google ha ufficialmente rilasciato Grounding con Google Search, una nuova funzionalità delle Gemini API, disponibile in Google AI Studio, che permette ai modelli di linguaggio Gemini di accedere a informazioni aggiornate e più precise, grazie all’integrazione diretta con i risultati di Google Search. Grounding consente ai modelli AI di migliorare le risposte, riducendo errori comunemente conosciuti come “allucinazioni” (ovvero informazioni inventate o errate) e garantendo un ritorno di informazioni con link di supporto in-linea e suggerimenti di ricerca pertinenti che indirizzano gli utenti verso i risultati più affidabili e recenti.
Per attivare questa funzionalità, gli sviluppatori possono abilitarla tramite il pannello “Tools” in Google AI Studio o all’interno della API della Gemini inserendo il comando ‘google_search_retrieval’ o sfruttando la configurazione dynamic retrieval. Questa sorta di “interconnessione” tra i modelli AI e i motori di ricerca di Google permette di generare risposte che non si limitano al dataset statico del modello, ma attingono in tempo reale alle informazioni più aggiornate e rilevanti presenti sul web.
L’introduzione di Grounding ha vari obiettivi:
- Ridurre le allucinazioni prodotte dai modelli AI, assicurando l’accuratezza delle informazioni.
- Offrire informazioni più aggiornate, utili per query che trattano notizie, ricerche tecniche o dati in continua evoluzione.
- Aumentare la fiducia degli utenti, fornendo fonti verificabili tramite link di supporto ben visibili.
- Migliorare la pertinenza delle risposte , trasformando l’efficacia dei modelli Gemini, che altrimenti risponderebbero basandosi esclusivamente su dati pregressi.
In pratica, quando un utente interagisce con un’applicazione che utilizza Grounding, Google Search viene attivato per restituire informazioni fresche, che vengono poi integrate nella risposta del modello, complete di fonti e suggerimenti di ulteriori ricerche.
Similitudini e differenze con SearchGPT
Anche se SearchGPT e il sistema di Grounding con Google Search condividono l’obiettivo di integrare informazioni aggiornate nelle risposte AI, sfruttando l’accesso diretto ai risultati del web, ci sono differenze sostanziali nel modo in cui entrambe le piattaforme gestiscono la ricerca.
La prima è tanto ovvia quanto evidente: SearchGPT si basa prevalentemente sull’indice web di Bing, come visto, mentre ovviamente Grounding utilizza il vasto indice di Google per migliorare l’attendibilità delle risposte, offrendo un accesso più capillare e consolidato ai dati.
Con Grounding, Google permette di includere link di supporto in-linea e suggerimenti di ricerca direttamente nelle risposte, elevando la precisione. Diversamente, SearchGPT organizza le informazioni in modo conversazionale, riducendo l’interazione con l’elenco tradizionale di link. Un altro punto importante è la possibilità, per gli sviluppatori di Google, di controllare dinamicamente quando attivare il grounding, riducendo latenza e costi per le query per cui non è necessario. Questo approccio non è offerto nello stesso modo da SearchGPT, dove la connessione ai risultati web è parte integrante e costante del processo di risposta.
Un altro elemento interessante, che si nota anche nell’immagine caricata (presa sempre dall’articolo di Google) riguarda la sezione “Google Search Suggestions”, che in pratica traduce il prompt iniziale in una possibile query da usare su Google per ottenere una SERP utile. Salta agli occhi, infatti, che questi suggerimenti vengono resi sotto forma di domanda, come quelle che appaiono nel People Also Ask, segno che l’intuizione che abbiamo avuto – che la ricerca per domande sia centrale per la SEO di domani – è assolutamente supportata dai dati!
SearchGPT e Google: due modelli diversi nella gestione dei dati
A livello più generale, sempre in tema di differenze, Google ha deciso di fondere la AI generativa con il sistema tradizionale di indicizzazione delle pagine, anche preservando il suo modello di monetizzazione SEA (Search Engine Advertising). Al contrario, SearchGPT adotta, almeno inizialmente, un percorso differente: la tecnologia sviluppata da OpenAI tende a riorganizzare e reinterpretare rapidamente le informazioni attraverso modelli di linguaggio come GPT-4, eliminando la classica lista di link tipica della SERP. In questo modo, mira a produrre contenuti maggiormente conversazionali e affinati sul contesto, spesso rielaborando i dati provenienti da Bing come base, ma con l’aggiunta di analisi sintetiche.
Questa dinamica genera una ricerca più immediata e compatta, ma pone una sfida per i publisher: essere presenti nei risultati non basta, bisogna infatti che il contenuto sia quello più pertinente per la query specifica dell’utente. Google, a differenza di SearchGPT, mantiene una doppia struttura dove convivono le risposte AI e i risultati tradizionali, ognuno dei quali arricchito da dettagli visivi, multimediali e link sponsorizzati, garantendo una continuità con i modelli pubblicitari già esistenti.
Il ruolo della pubblicità e la nuova SEA in AI Overviews
Quando si parla di monetizzazione e modelli pubblicitari, la differenza più evidente tra Google e SearchGPT risiede nel modo in cui gestiscono gli annunci pubblicitari. Google sta sviluppando un sistema robusto per integrare ads all’interno delle AI Overviews, conservando lo schema di pubblicità trasparente che è stato alla base del suo successo SEA per decenni. L’introduzione di annunci correlati e shopping ads direttamente integrati nelle panoramiche AI rafforza ulteriormente il legame tra l’intelligenza artificiale e il modello di business basato sulle inserzioni sponsorizzate.
Nel contesto di una query su Google, per esempio, l’utente potrebbe chiedere: “Come eliminare una macchia di erba dai jeans?” e ricevere una AI Overview con i metodi suggeriti dall’AI, seguita da annunci di prodotti sponsorizzati come smacchiatori o detergenti. Questo sistema, già attivo per gli utenti mobile negli Stati Uniti, offre un vantaggio immediato alle aziende che vogliono posizionare i propri prodotti, sfruttando il nuovo format di advertising nelle AI Overviews senza sacrificare la qualità della ricerca.
Al contrario, SearchGPT non ha ancora sviluppato un sistema pubblicitario equivalente, essendo ancora focalizzato principalmente su risposte puramente informazionali. Tuttavia, è plausibile che in futuro OpenAI possa integrare annunci in base ai dati raccolti attraverso la sua API e le sue partnership con vari editori, seguendo una strada simile a quella intrapresa da Google.
Google e SearchGPT: la spiegazione di Giuseppe Liguori
A fornirci maggiori dettagli è intervenuto anche il nostro Giuseppe Liguori, CTO e co-founder di SEOZoom, che ha spiegato in modo chiaro e pertinente come funzionano i motori di ricerca attuali e quali possono essere le potenziali rivoluzioni che SearchGPT può apportare.
Attualmente, i motori di ricerca come Google lavorano così:
- Scansionano una pagina web.
- La inseriscono nel proprio indice.
- Applicano dei fattori di ranking che hanno imposto.
- Estraggono N risultati a seconda della query inserita.
Tutto inizia dagli spider, sistemi che scansionano il web, trovano le pagine web e le inseriscono all’interno di un indice; su questo indice, vengono applicati vari calcoli, conosciuti come fattori di ranking, che determinano quali risultati compariranno quando un utente digita una query sulla barra di ricerca. Il solo algoritmo stabilito da Google tiene conto di migliaia di fattori, legati spesso a logiche di business, e questi fattori sono soggetti a cambiamenti frequenti – update algoritmici specifici e broad core update più generici. Questo continuo aggiornamento rende complicata la vita dei professionisti SEO, costringendoli a restare costantemente aggiornati per evitare di essere penalizzati.
È in questo scenario che si inserisce il nuovo approccio applicabile da SearchGPT. Invece di utilizzare un algoritmo deterministico, SearchGPT potrebbe sfruttare un proprio spider proprietario per scansionare il web e inserire le informazioni in un cosiddetto database vettoriale. Come descrive Giuseppe, questo database è una rappresentazione geometrica delle informazioni, dove i testi vengono trasformati in vettori numerici che popolano uno spazio geometrico, una sorta di grafico con migliaia di dimensioni. Quando un utente formula una query, il motore di ricerca estrae i pezzi di testo geometricamente e semanticamente vicini alla domanda, offrendo risposte basate sulla pertinenza e sulla somiglianza semantica piuttosto che su regole predefinite.
Non c’è quindi un algoritmo deterministico dove è il motore stesso a definire le regole (e poi cambiarle): è tutto basato sulla pertinenza e sull’affinità tra la domanda che abbiamo fatto e i contenuti che stanno in questo gigantesco grafico a punti.
Differenze tra SearchGPT e i motori di ricerca AI già esistenti
Al momento al nuovo motore di OpenAI è mancato il passo finale per differenziarsi nettamente non solo dai classici search engine, ma anche dai prototipi più avanzati che si basano già sull’intelligenza artificiale, come AI Overview di Google, Perplexity e Bing.
Attingendo (soprattutto) a Bing, infatti, SearchGPT ha scelto la via rapida dei citati concorrenti: utilizzare ancora meccanismi di ricerca tradizionali e algoritmi (terzi o proprietari), limitandosi spesso a riassumere i primi dieci risultati dei motori di ricerca convenzionali. Siamo ancora nel campo dei “meta-motori che si appoggiano ad API esterne”, come da felice definizione di Giuseppe.
Invece, stando alle prime dichiarazioni (e, chissà, alle future evoluzioni) SearchGPT si sarebbe potuto posizionare come soluzione in grado di rispondere direttamente alle domande degli utenti, selezionando i contenuti più adatti in base alla richiesta scritta grazie ai propri sistemi di scansione del Web. Questo approccio avrebbe permesso di evitare l’intermediazione dei classici risultati di ricerca, focalizzandosi esclusivamente sulla pertinenza, e avrebbe fornito davvero diverso un servizio agli utenti.
Se ci pensiamo, infatti, dice ancora Giuseppe, le persone “vogliono risposte alle loro esigenze, non vogliono navigare il web perché si scocciano e hanno poco tempo”.
Da parte sua, Google avrebbe la capacità di adottare un modello di ricerca basato su AI come quello di SearchGPT, ma come già accennato dovrebbe rinunciare o mettere a repentaglio il suo modello di business attuale (e ben remunerativo), che si basa su pubblicità, banner e risultati sponsorizzati. Alphabet – la società madre di Google – ha tutto da perdere, mentre OpenAI sta entrando ora nel mercato e ha più spazio per rischiare e adottare innovazioni radicali senza le stesse preoccupazioni legate alla monetizzazione immediata.
I limiti e i nodi da affrontare
Liguori però aveva già sottolineato anche altri aspetti cruciali che determineranno il successo o il fallimento del progetto SearchGPT.
Innanzitutto, c’è l’immediato problema che interessa i creatori di contenuti e la loro (eventuale) remunerazione: se l’utente avrà già da subito la risposta alla sua domanda, senza necessità di esplorare altre pagine web, quale sarà l’incentivo per convincere i creatori di contenuti a scrivere nuovi contenuti e a produrre nuovi materiali?
La questione è duplice: i nuovi contenuti servono non solo per popolare il web di informazioni aggiornate e pertinenti, ma anche per continuare l’addestramento delle stesse Intelligenze Artificiali. E quindi, sarà necessario sviluppare nuovi meccanismi di remunerazione per incentivare la produzione di contenuti di qualità, evitando che il web diventi un deserto informativo dominato solo dall’intelligenza artificiale, dove ci saranno solo delle AI a parlare tra di loro ripetendo (e fornendo come risposta) solo vecchie informazioni.
C’è poi da considerare il fattore temporale: quanto servirà alle persone per iniziare ad adottare questo nuovo sistema conversazionale per ricercare le cose? La velocità con cui un sistema come SearchGPT si diffonde dipenderà in realtà dagli accordi e le integrazioni che OpenAI riuscirà a realizzare: se, ad esempio, venisse integrato con Siri sui dispositivi Apple, la massa di utenti si abituerà rapidamente a questa nuova modalità di ricerca, riducendo l’uso di Google.
Ma c’è anche una questione che riguarda la qualità delle risposte che SearchGPT offre, strettamente legata alle fonti di dati utilizzate per l’addestramento del modello: gli utenti useranno e apprezzano il nuovo sistema se (e solo se) si rivela effettivamente migliore di Google. Al di là dell’errore commesso nella presentazione – tutt’altro che banale! – bisogna poi verificare se le fonti contengono errori, informazioni obsolete o bias algoritmici di natura discriminatoria, che rischiano di essere perpetrate anche dal modello generativo. Questa problematica si amplifica ulteriormente nei contesti dove l’accuratezza delle informazioni è di vitale importanza, come nei settori medico o legale e in generale nei settori YMYL.
Alla luce di queste considerazioni, quindi, e contrariamente a ciò che stanno scrivendo molte persone online, per Giuseppe Liguori “la SEO non è morta né è destinata a morire“: fino a che esiste un motore alle spalle ci sarà sempre bisogno di competere e ottimizzare le pagine per cercare di fare qualcosa di meglio dei competitor per essere scelti come risultato.
Con un sistema basato su database vettoriali, i professionisti della SEO dovranno sviluppare nuove strategie per creare contenuti che rispondano precisamente alle domande degli utenti, come ipotizzato e descritto dal citato “SEO for AI” di Ivano di Biasi.
La SEO non è morta (e nemmeno Google)!
“Quanto manca al momento in cui sostituirà anche Google per le ricerche?”, si chiedeva proprio Ivano in apertura del suo nuovo libro, e la risposta sembra essere “sempre meno!”.
Eppure, lo stesso Ivano ci tiene a rassicurare tutti sul futuro della SEO, che sarà rivoluzionata sicuramente dall’introduzione dell’intelligenza artificiale, ma di certo non è destinata a scomparire – soprattutto, non nel breve periodo.
Basta partire da una considerazione fattuale: al momento, Google ha oltre 3,5 miliardi di utenti nel mondo, mentre ChatGPT si ferma a circa 300mila. Pensare che tutti abbandonino improvvisamente e immediatamente Google per passare a SeaerchGPT è folle e poco lungimirante – motivo per cui dobbiamo anche continuare a fare la SEO tradizionale, nel frattempo!
SearchGPT ed eventuali AI search engine sono comunque motori di ricerca sperimentali, che necessitano di essere testati e affinati, e anche di modelli di business completamente nuovi da stabilire. OpenAI ha già indicato che prevede di monetizzare i contenuti e permettere pubblicità all’interno del suo motore di ricerca, ma c’è una grande differenza tra creare un nuovo competitor per Google e riuscire a scalzarlo dal trono.
E poi, anche Ivano ritiene che la SEO continuerà ad esistere e a evolversi perché la competizione per la visibilità online è un fenomeno intramontabile. Finché ci saranno aziende e creatori di contenuti che vogliono emergere e competere, ci sarà sempre bisogno di strategie per ottimizzare la visibilità nei motori di ricerca. Indipendentemente dal nome o dalle specifiche tecniche, una strategia di ottimizzazione sarà sempre richiesta per garantire che i contenuti raggiungano il pubblico desiderato.
Anzi, queste notizie dovrebbero offrici una nota di ottimismo e non di negatività: finalmente qualcosa sta cambiando nel monopolio della ricerca! Anche se all’inizio l’impatto potrebbe essere limitato, c’è ora un nuovo competitor che potrebbe iniziare a sottrarre traffico a Google, che come abbiamo visto è tutt’altro che infallibile o perfetto – e negli ultimi tempi è quasi statico, posizionando sempre gli stessi siti ai primi posti.
Come fare SEO con SearchGPT: strategie e strumenti
Anziché piangersi addosso, è il momento di rimboccarci le maniche e accettare la sfida, continuando a innovare e a studiare le migliori strategie per restare rilevanti sia su Google sia sui nuovi motori di ricerca alimentati dall’intelligenza artificiale.
Serve la creazione di un framework di SEO per AI, come anticipato nel libro di Ivano, che rappresenta un passo cruciale per garantire la visibilità dei contenuti in un futuro sempre più tecnologicamente avanzato.
La sua intuizione di prevedere una SEO specifica per l’intelligenza artificiale non è casuale, ma un passo naturale evolutivo per chi, come SEOZoom, lavora da anni nel campo della ricerca: questa nuova era richiede una comprensione profonda della funzione dell’AI nella ricerca, e SEOZoom si è impegnato a prevedere e adattarsi a queste esigenze future attraverso una ricerca costante e innovazioni nel campo della SEO.
Ad esempio, nel libro Ivano ha eseguito dei test ed esperimenti pratici installando un motore di ricerca in locale e manipolando i risultati per capire come posizionare determinate pagine rispetto ad altre, dimostrando che è possibile influenzare i risultati in un contesto di AI. Tuttavia, questo è solo l’inizio: i prossimo futuri motori di ricerca basati sull’AI richiederanno nuove strategie e tecniche di ottimizzazione, e la SEO dovrà adattarsi a questa nuova realtà.
Se a prima vista il confronto tra SearchGPT e Google può sembrare infatti concentrato principalmente sulle diverse modalità di risposta alla query utente, l’avvento di SearchGPT potrebbe far emergere una SEO più mirata al contesto e non solo alla posizione.
Essere in grado di adattare i propri contenuti a un modello che privilegia la pertinenza semantica, piuttosto che semplicemente l’ottimizzazione per keyword, richiede una comprensione più profonda delle intenzioni di ricerca e una capacità di fornire risposte che rispondano completamente a ciò che l’utente sta cercando, combinando qualità e affidabilità delle fonti.
Con SearchGPT, quindi, il lavoro della SEO non si ferma solo alla ricerca della prima posizione nella SERP: si tratta di creare contenuti che siano capaci di dialogare con l’AI, rimanendo vincenti per completezza e precisione anche in contesti più dinamici e conversazionali.
Come cambia la SEO con l’AI
Per Ivano, una delle principali differenze riguarderà l’importanza della struttura tecnica dei siti web, che ridurrà significativamente. In questo nuovo contesto, i contenuti diventeranno realmente il fulcro della SEO: i motori di ricerca basati su AI attribuiranno maggiore peso al copywriting e all’organizzazione interna dei contenuti. Gli algoritmi di AI saranno in grado di comprendere le relazioni tra i vari documenti e di inserirli in uno spazio vettoriale complesso.
In questo spazio vettoriale, i testi si trasformano in vettori numerici che popolano un grafico multidimensionale: quando un utente fa una domanda al motore di ricerca, l’AI esamina questo spazio vettoriale per trovare i contenuti più pertinenti. È come se si utilizzasse una penna per pescare informazioni in un foglio virtuale: avere più contenuti approfonditi su un argomento specifico aumenta la probabilità che le risposte siano esattamente quelle ricercate. Questo approccio rende essenziale la produzione di contenuti ricchi e dettagliati, poiché occupare maggior spazio vettoriale significa avere più opportunità di essere selezionati dagli algoritmi AI.
La competizione e la necessità di inventare strategie per ottenere visibilità continueranno a spingere l’innovazione nel settore: con l’AI che diventa sempre più centrale, i professionisti SEO dovranno adattarsi e sfruttare le nuove tecnologie per creare contenuti di alta qualità e ottimizzati per il nuovo ecosistema di ricerca.
Degli strumenti di supporto ci sono già: ad esempio, ilQuestion Explorer di SEOZoom ridefinisce l’approccio alla keyword research, spostando l’attenzione dalle parole chiave tradizionali alle domande reali degli utenti. Questo permette di creare contenuti mirati che rispondono direttamente alle esigenze degli utenti, migliorando così le probabilità di posizionamento – già ora, e in modo ancora più intenso con SearchGPT e affini.
L’uso di questo strumento, degli altri tool di SEOZoom e dei prossimi che saranno sviluppati non solo ci permette di rimanere competitivi oggi, ma ci preparano anche a ottimizzare i nostri contenuti affinché vengano selezionati come risposte pertinenti dalle intelligenze artificiali, garantendo un elevato livello di ottimizzazione nella SEO del futuro.
SearchGPT: una rivoluzione a metà e un’occasione mancata (per ora)?
L’avvento di SearchGPT segna senz’altro un passo importante nel panorama della ricerca AI-driven, ma siamo ancora agli albori di quella che potrebbe diventare la vera rivoluzione digitale nella SEO.
Come sottolinea anche chi ha già cominciato a testare il motore, SearchGPT non rappresenta una totale rottura con il passato: il sistema, pur adottando un’interfaccia più intuitiva e un approccio basato interamente sulla conversazione, sfrutta ancora l’indice di Bing, riorganizzando i contenuti in modo coerente con il contesto semantico delle query degli utenti. Insomma, non siamo ancora di fronte a un motore di ricerca autonomo in grado di scansionare e indicizzare il web in tempo reale.
D’altra parte, anche Google sta procedendo su questa strada: con l’introduzione del Grounding con Google Search nei modelli Gemini, il gigante della ricerca offre nuovi strumenti per migliorare la freschezza e la precisione delle risposte, senza abbandonare però la solida struttura delle SERP. È evidente che entrambi i motori puntano a creare un modello “ibrido”, in cui l’AI si appoggia a fonti online aggiornate per affinare le risposte, ma il focus rimane fermo sulle informazioni fresche, verificabili e pertinenti.
Ma emergono anche limiti dal punto di vista “tecnico”. Le query locali, in particolare, rappresentano una sfida per SearchGPT e in alcune sperimentazioni il motore ha mostrato risposte inaccurate, limitando i risultati a singole fonti o popolando mappe con pochi riferimenti. Anche se SearchGPT dichiara di utilizzare Bing, quando l’utente interroga esplicitamente il sistema per visualizzare i risultati su una mappa, viene comunque ridirezionato verso Google Maps, un comportamento interessante che evidenzia ancora delle incoerenze nel sistema. Problemi anche nel contesto delle query e-commerce: il motore, infatti, può a volte restituire prezzi errati o informazioni commerciali imprecise. Per i brand e i siti di e-commerce, questo costituisce un rischio, poiché prezzare articoli in modo inaccurato potrebbe avere ripercussioni sulle conversioni proiettando un’immagine disuguale rispetto ai concorrenti che utilizzano strumenti più standardizzati come Google.
Inoltre, anche se come detto SearchGPT possa citare fonti che non rientrano nei primi 100 risultati di Bing, operando una sua selezione indipendente dal ranking classico, continua a presentare alcune anomalie, come il fatto di citare pagine 404 o contenuti dietro paywall, creando casi in cui l’accesso al contenuto diventa difficile o impossibile per l’utente finale. Questo è un elemento che può influenzare la fiducia nelle sue risposte rispetto a Google o Bing.
E quindi, se da un lato per tutte le query a carattere informativo SearchGPT dimostra un’alta capacità di comprensione e restituzione di contenuti riorganizzati, dall’altro, in settori come l’e-commerce o la ricerca locale Google resta ancora in vantaggio grazie alla sua rete di dati strutturati e alle API recenti che collegano il motore con il web in modo più completo. Le domande da porsi, dunque, rimangono: come possiamo adattare le strategie SEO per rispondere efficacemente a questi nuovi modelli AI? E soprattutto, quale motore diventerà il riferimento per la gestione delle informazioni nel SEO del futuro?
La vera sfida per chi si occupa di ottimizzazione sarà non solo adattarsi alle logiche conversazionali di motori come SearchGPT, ma capire quando e come utilizzare questi strumenti per massimizzare la visibilità online , senza perdere di vista l’importanza di ambienti più consolidati come Google. La “guerra” tra motori di ricerca ibridi è appena cominciata, e chi saprà muoversi con agilità tra questi due mondi potrà ottenere i migliori risultati per il proprio sito o progetto.
In definitiva, dobbiamo cercare di restare aggiornati e curiosi – per usare una frase tanto iconica quanto scontata, “stay hungry, stay foolish” – per continuare a produrre contenuti e renderli rilevanti nel panorama in continua evoluzione della SEO.