Fact checking: cos’è e come funziona la verifica dei fatti online

La lotta alla disinformazione è da tempo al centro di tensioni globali che coinvolgono aziende tecnologiche, governi e società civile. Nato come risposta alla crescita delle fake news, in un contesto profondamente segnato dalla polarizzazione politica e dall’accesso sempre più frammentato alle informazioni, il fact checking si è affermato come uno strumento indispensabile per cercare di preservare la qualità del dibattito pubblico e garantire un’informazione più affidabile: dalle analisi delle notizie virali sui social media alla verifica delle dichiarazioni politiche e dei contenuti problematici durante emergenze come quella sanitaria, ha contribuito a correggere narrazioni errate e ad alimentare la fiducia in un ecosistema informativo sempre più complesso. Ma ora sembra esserci un nuovo punto di svolta, dopo le recenti decisioni di colossi digitali come Meta e Google di ridimensionare o eliminare i programmi di fact checking, che hanno riacceso il dibattito sull’attendibilità dell’informazione online e sulle responsabilità delle piattaforme nei confronti degli utenti. Tali cambiamenti intervengono in un momento critico, tra l’avversione verso le accuse di censura e la necessità di garantire una moderazione efficace contro la disinformazione disgregante, e sollevano interrogativi profondi sull’evoluzione della comunicazione digitale. Quali saranno le implicazioni della riduzione del fact checking centralizzato per l’informazione? E quali alternative resteranno per arginare l’espansione delle fake news? Analizzare il ruolo e le sfide del fact checking diventa quindi essenziale per comprendere cosa stia cambiando e quali modelli futuri possano emergere.

Che cos’è il fact checking o verifica dei fatti

Il fact checking è un processo strutturato e metodico utilizzato per garantire l’accuratezza delle informazioni. La funzione primaria di questa verifica dei fatti è proteggere il pubblico dalla disinformazione, sempre più frequente con notizie e contenuti che si diffondono a velocità straordinaria, spesso senza alcuna verifica preliminare, offrendo strumenti concreti per discernere tra dati credibili e affermazioni false o manipolate. Attraverso questo processo si analizzano dichiarazioni, immagini, video o statistiche con l’obiettivo di confermare o confutare i contenuti diffusi.

Una piattaforma, mille opportunità per la tua comunicazione
Monitora la qualità dei contenuti e individua opportunità per crescere con gli strumenti avanzati di SEOZoom
Registrazione

La sua origine è radicata nel giornalismo tradizionale, quando le redazioni includevano professionisti incaricati di controllare nei dettagli le notizie prima che fossero pubblicate. Con l’evoluzione del panorama mediatico e la diffusione del copywriting online, il fact checking ha assunto nuovi significati e applicazioni, trasformandosi in una pratica volta a contrastare le conseguenze del fenomeno delle fake news e delle campagne di disinformazione mirata. Non è più solo prerogativa delle redazioni giornalistiche o dei singoli copywriter, ma coinvolge enti indipendenti, team di esperti e piattaforme tecnologiche, spesso in collaborazione tra loro.

A caratterizzare il fact checking moderno è una combinazione di verifica manuale e tecnologica: da un lato, i fact checker professionisti analizzano le informazioni con rigore scientifico; dall’altro, gli algoritmi, spesso integrati con l’intelligenza artificiale, accelerano il riconoscimento delle tendenze di disinformazione e forniscono supporto tramite l’analisi automatizzata dei dati.

Questo processo è rilevante anche per garantire la qualità del dibattito pubblico, specialmente all’interno delle democrazie, dove una corretta informazione rappresenta un pilastro per la formazione di un’opinione consapevole. Il successo del fact checking, tuttavia, non dipende solo dalla precisione con cui analizza i contenuti, ma anche dalla capacità di educare gli utenti a riconoscere autonomamente gli indicatori di affidabilità, rafforzando il senso critico verso ciò che leggiamo, condividiamo e crediamo.

Cosa significa fact checking: definizione e panoramica

Il fact checking è una procedura metodica che prevede la verifica e la validazione dell’accuratezza di un’affermazione per smascherare eventuali informazioni parzialmente vere, false, manipolate o decontestualizzate.

Si applica a una vasta gamma di contenuti: dichiarazioni politiche, articoli giornalistici, notizie virali, messaggi sui social media e persino materiale visivo come foto e video. Non è esclusiva del mondo del giornalismo, ma si è esteso a settori come la politica, la sanità pubblica e le indagini accademiche, dove preservare l’integrità dei dati è essenziale.

Il processo si basa su una rigorosa analisi che consente di stabilire se un’informazione è vera, falsa, parzialmente vera o manipolata. I professionisti di questo campo si servono di fonti affidabili e dati verificabili, come documenti ufficiali, ricerche scientifiche e articoli di media riconosciuti, abbinati a tecniche specifiche, come l’analisi di immagini per stanare manipolazioni visive, per smentire mezze verità e bugie evidenti, fornendo al pubblico il contesto necessario per comprendere meglio i fatti in questione. Il risultato finale non si limita a smentire o confermare un’informazione, ma punta a fornire un quadro chiaro e contestualizzato che aiuti il pubblico a comprendere le implicazioni di ciò che viene verificato.

Perché il fact checking è rilevante

L’importanza del fact checking non risiede solo nella sua capacità tecnica di individuare informazioni false, ma soprattutto nella sua influenza sullo stato di salute delle democrazie e sui meccanismi di coesione sociale. In questi anni le fake news, per la loro natura virale e altamente divisiva, hanno dimostrato di poter alterare profondamente le percezioni della realtà collettiva, e il caso delle elezioni statunitensi del 2016 o la proliferazione di notizie false durante la pandemia di COVID-19 rappresentano esempi concreti di quanto una narrazione distorta possa avere conseguenze tangibili.

Quando implementato con criteri scientifici e standard rigorosi, il processo di verifica dei fatti protegge non solo l’informazione, ma anche il dialogo pubblico, perché un’informazione accurata diventa uno strumento strategico tanto per i governi quanto per i cittadini. Senza meccanismi di verifica affidabili, il rischio è di cedere il passo a una “società post-verità”, dove la manipolazione delle emozioni supera l’appello alla razionalità.

Insomma, il valore del fact checking va oltre la mera verifica delle informazioni e serve come baluardo contro la manipolazione, aumentando la resilienza del pubblico nel distinguere tra fatti e menzogne, rafforzando i pilastri (o meglio, pillar) della trasparenza e dell’etica informativa. Inoltre, le istituzioni pubbliche, le piattaforme digitali e i cittadini hanno nei fact checker un punto di riferimento imparziale e metodologico capace di promuovere un dialogo basato su dati concreti.

L’intervento dei fact checker è cruciale anche per responsabilizzare le piattaforme digitali, spesso accusate di favorire la disinformazione. Gli strumenti di verifica non mirano tanto a censurare, quanto a fornire al pubblico il contesto necessario per comprendere lucidamente il contenuto, segnalando eventuali distorsioni. Al di là del momento specifico, l’obiettivo a lungo termine rimane chiaro: stimolare un ecosistema informativo più resiliente e consapevole, in cui ogni individuo possa sviluppare criteri autonomi per distinguere ciò che è affidabile e ciò che non lo è.

Chi sono i fact checker

I fact checker rappresentano un ponte indispensabile tra l’informazione e il pubblico. Si tratta di professionisti, organizzazioni indipendenti o team integrati nei media digitali, il cui unico compito è quello di analizzare, verificare e, quando necessario, smentire contenuti potenzialmente falsi o fuorvianti. Non sono semplicemente “correttori di errori“, ma garanti di trasparenza e affidabilità in un’ecosistema mediatico sempre più frammentato e incline alla manipolazione. Oltre al loro ruolo tradizionale, i fact checker agiscono come alleati delle piattaforme social, che spesso si appoggiano a loro per implementare sistemi di verifica esterni.

Collaborazioni significative tra fact checker e attori come Meta e Google hanno portato a importanti progetti di contrasto alla disinformazione, sebbene le recenti decisioni delle Big Tech abbiano messo in discussione l’efficacia e il futuro di queste partnership.

Chi fa fact checking: organizzazioni indipendenti ed esempi virtuosi in Italia

Le organizzazioni di fact checking indipendenti sono gli attori principali del settore, riconosciute per la loro trasparenza, imparzialità e metodologia rigorosa. Questi enti operano secondo standard definiti da reti globali come l’International Fact-Checking Network (IFCN), che garantisce che i membri aderiscano a principi di indipendenza editoriale e accuratezza. Tra i requisiti per essere accreditati dall’IFCN, vi sono la disponibilità a rendere pubbliche le fonti, il rispetto delle regole di apartiticità e la revisione regolare da parte di peer indipendenti.

In Italia, progetti come Facta.news e Pagella Politica rappresentano esempi eccellenti di fact checking locale. Facta.news si concentra sulla smentita di notizie virali frequentemente diffuse sui social media, combinando un approccio didattico a spiegazioni dettagliate. Pagella Politica, invece, è specializzata nella verifica delle dichiarazioni di politici e istituzioni, fornendo punteggi basati su rigorosi criteri di analisi.

Entrambe le organizzazioni lavorano in collaborazione con progetti globali e con piattaforme digitali internazionali, come Meta, che ha incluso i loro interventi nell’ormai smantellato Third-Party Fact-Checking Program. Questo dimostra come anche le realtà locali siano essenziali per contrastare disinformazione capillare e specifica, spesso non coperta dai grandi network internazionali.

Le organizzazioni indipendenti non agiscono mai isolate: molte collaborano tra loro per condividere metodologie, risorse e ricerche. Questo approccio collettivo consente di affrontare fenomeni ampi come le campagne di disinformazione orchestrate da stati esteri o attivisti ideologici, aumentando così l’efficacia dei loro interventi.

La trasparenza e il rigoroso impegno verso la divulgazione dell’informazione verificata fanno delle organizzazioni di fact checking indipendenti il nucleo vitale della lotta contro la disinformazione globale.

Come funziona il fact checking in pratica

Il fact checking è un processo strutturato che combina metodologie rigorose, analisi puntuale e l’impiego di fonti affidabili. Prima di arrivare alle conclusioni, i fact checker seguono un iter specifico pensato per garantire la massima precisione e trasparenza; sebbene l’obiettivo finale sia confermare o confutare un’informazione, il valore principale risiede nell’approccio metodico che porta a fornire al pubblico non solo un verdetto, ma anche contesto e prove verificabili.

Il metodo si divide in fasi distinte, ciascuna progettata per affrontare un aspetto particolare della verifica. Questo approccio permette di individuare eventuali errori, manipolazioni o disinformazione intenzionale, restituendo agli utenti un’informazione contestualizzata e affidabile.

Le fasi del processo di verifica dei fatti

Il processo di verifica dei fatti è come detto suddiviso in più passaggi operativi, ognuno dei quali contribuisce a garantire un’analisi meticolosa e imparziale delle affermazioni sottoposte a controllo.

  1. Identificazione dell’affermazione da controllare

Non tutto è materia di fact checking. I fact checker selezionano con attenzione le affermazioni che hanno un impatto significativo sul pubblico o che rischiano di influenzare decisioni importanti, come campagne elettorali, questioni sanitarie o eventi di rilevanza internazionale. Questa fase implica anche una valutazione dell’urgenza: più alta è la diffusione di un’informazione potenzialmente falsa, più elevata sarà la priorità data alla sua verifica.

Il criterio guida durante questa fase è di concentrare gli sforzi sulle notizie capaci di generare reazioni amplificate, evitando di disperdere risorse su contenuti minori o irrilevanti dal punto di vista collettivo.

  1. Raccolta di dati attendibili

La seconda fase è dedicata alla ricerca e compilazione delle fonti necessarie per verificare l’informazione. Si tratta di un lavoro dettagliato che si appoggia su:

  • Documenti ufficiali (leggi, regolamenti, bilanci pubblici).
  • Ricerche scientifiche pubblicate in contesti accreditati, come riviste peer-reviewed o report istituzionali.
  • Fonti giornalistiche riconosciute e indipendenti, selezionate anche in base alla loro oggettività e storia di affidabilità.

Essenziale in questa fase è la trasparenza delle fonti: qualsiasi verifica perde di valore se manca una documentazione concreta su cui basare il controllo. Ogni dato viene archiviato in modo da poter essere consultato successivamente, sia dal fact checker sia dal pubblico.

  1. Verifica incrociata tra fonti

In questa fase, i fact checker confrontano le informazioni raccolte alla ricerca di coerenze, discrepanze o omissioni. Una notizia vera deve trovare sostegno in fonti multiple e concordanti, mentre incongruenze nel contenuto o nelle interpretazioni offrono spesso indizi utili per rivelare manipolazioni o falsità.

Un esempio pratico è l’analisi delle immagini: un contenuto visivo condiviso online potrebbe essere autentico ma decontestualizzato. Attraverso strumenti come la ricerca inversa delle immagini su Google o TinEye, i fact checker risalgono alla fonte originale, verificando se lo scatto è recente o estrapolato da un evento passato.

L’intersezione tra fonti indipendenti è un passaggio obbligato. Anche se una singola fonte risulta attendibile, il fact checking si basa sull’individuazione di conferme parallele per ridurre al minimo la possibilità di errore.

  1. Pubblicazione del risultato

L’ultima fase non si esaurisce in un semplice “vero” o “falso”. Ogni verifica viene accompagnata da una spiegazione dettagliata del metodo utilizzato, delle fonti consultate e dei passaggi seguiti per raggiungere una conclusione. Questo approccio rende il processo trasparente e accessibile, consentendo al pubblico di comprendere non solo il risultato, ma anche le ragioni che lo sostengono.

La trasparenza nel metodo di pubblicazione è cruciale: un fact check produce valore reale solo quando chiunque possa replicare l’analisi, verificare le fonti e valutare con autonomia l’affidabilità del risultato. Una pratica comune è inserire collegamenti diretti alle fonti primarie, offrendo al lettore l’opportunità di approfondire personalmente.

L’obiettivo, oltre alla correzione immediata di un’informazione inesatta, è educare gli utenti a un uso critico e consapevole delle informazioni. In questo modo, il fact checking diventa non solo uno strumento di contenimento delle fake news, ma anche un alleato nel migliorare la qualità del dibattito pubblico.

Strumenti e tecnologie per fare verifica dei fatti

Il fact checking moderno non si limita a un controllo manuale delle informazioni: sfrutta un’ampia gamma di strumenti e tecnologie per velocizzare il lavoro e aumentare l’accuratezza dei risultati. Tecniche come la ricerca inversa delle immagini, banche dati specializzate e software per l’analisi dei contenuti permettono di tracciare l’origine di un’informazione, verificarne l’autenticità e contestualizzarla in modo efficace. Questi strumenti rappresentano un supporto essenziale per identificare eventuali manipolazioni e per contrastare la disinformazione in modo rapido e mirato.

  • Google Reverse Image Search: scoprire l’origine di un’immagine

Uno degli strumenti più utilizzati dai fact checker è Google Reverse Image Search, che consente di eseguire una ricerca per immagini anziché per parole chiave. Basta caricare un’immagine o incollarne l’URL per accedere a un elenco di siti che l’hanno pubblicata, indicando la sua fonte originale. Questo è particolarmente utile per individuare manipolazioni visive o decontestualizzazioni. Per esempio, una foto apparentemente legata a un evento recente potrebbe essere stata scattata anni prima in un contesto completamente diverso.

  • NewsGuard: una banca dati per la credibilità delle fonti

NewsGuard fornisce una valutazione delle testate giornalistiche e delle fonti digitali sulla base di criteri come trasparenza, accuratezza e indipendenza editoriale. Si tratta di una risorsa fondamentale per distinguere le piattaforme affidabili da quelle sospette o dedite alla disinformazione. Oltre alle analisi qualitative, NewsGuard mantiene un database di “impronte digitali della disinformazione”, identificando narrazioni ricorrenti e contenuti già smentiti. Questo strumento è particolarmente apprezzato per il suo approccio sistematico nella categorizzazione di siti e contenuti, rendendo più facile individuare pattern di propaganda o campagne orchestrate.

  • Software di analisi avanzata e intelligenza artificiale

I progressi nell’intelligenza artificiale hanno portato alla creazione di software in grado di monitorare grandi volumi di contenuti digitali. Algoritmi di machine learning possono identificare rapidamente narrazioni fraudolente, fake news e troll network attraverso l’analisi di testi, immagini e video. Strumenti come TinEye o CrowdTangle, frequentemente usati nel fact checking, completano il panorama tecnologico supportando l’individuazione di contenuti manipolati e la loro tracciabilità.

Gli strumenti tecnologici, quindi, costituiscono la spina dorsale del fact checking moderno, garantendo maggiore efficienza e raggiungendo ambiti impossibili da monitorare manualmente. Tuttavia, il contributo umano rimane essenziale per aggiungere il contesto culturale e interpretare situazioni complesse che i software da soli non possono decifrare.

L’attualità: il fact checking sotto attacco dalle decisioni delle Big Tech

Lo scenario ora descritto – che era comunque già fragile e complicato – rischia ora di essere ulteriormente scosso a causa di cambiamenti profondi, in gran parte derivanti dalle scelte strategiche delle grandi aziende tecnologiche. Meta, Google e LinkedIn hanno recentemente annunciato modifiche radicali ai loro approcci nel contrastare la disinformazione, puntando alla riduzione o all’eliminazione dei programmi di fact checking tradizionali. Queste decisioni arrivano in un momento in cui il ruolo delle piattaforme digitali come arbitri dell’informazione è sempre più contestato, e inaugurano una fase di forte instabilità nella lotta contro le fake news.

Mentre Meta ha deciso di abbandonare il suo Third-Party Fact-Checking Program negli Stati Uniti, introducendo il sistema decentralizzato delle Community Notes, Google e LinkedIn hanno ritirato la loro partecipazione agli impegni sul fact checking nel contesto europeo, giustificando la scelta con motivazioni economiche e strategiche. L’impatto di queste decisioni è significativo: ridefiniscono non solo il concetto di moderazione, ma anche il rapporto di fiducia tra piattaforme, utenti e istituzioni.

Meta: dalla fine del fact checking alle Community Notes

Il 7 gennaio 2025, Mark Zuckerberg ha ufficializzato la decisione di chiudere il programma di fact checking di Meta negli Stati Uniti. Attivo dal 2016, questo programma aveva coinvolto organizzazioni indipendenti certificate dall’International Fact-Checking Network (IFCN) per analizzare e valutare notizie diffuse sulle piattaforme di Facebook, Instagram e, più recentemente, Threads. L’obiettivo era contenere la disinformazione virale e offrire agli utenti un contesto chiaro sulla credibilità dei contenuti online. Tuttavia, con l’annuncio della sperimentazione del sistema Community Notes, la responsabilità della verifica delle informazioni passerà dagli esperti agli utenti stessi.

Le Community Notes, ispirate al modello di moderazione di X (ex Twitter), rappresentano una soluzione partecipativa in cui una comunità di utenti può commentare e aggiungere contesto a post controversi. Una volta votate e approvate da un numero sufficiente di utenti con prospettive diverse, le note diventano visibili a tutta la piattaforma. Secondo Zuckerberg, questo strumento mira a promuovere una maggiore trasparenza e a bilanciare l’ecosistema informativo. Tuttavia, la mossa è stata accolta con forti critiche, evidenziando sia preoccupazioni relative alla sua efficacia, sia un chiaro spostamento delle responsabilità dalla piattaforma stessa alla comunità di utenti.

Perché Meta ha scelto questa strada

La decisione di Meta di abbandonare il fact checking di terze parti può essere attribuita a diversi fattori, strategici e politici.

  1. Libera espressione e inclusività (secondo la posizione di Meta)

Zuckerberg ha dichiarato che il passaggio alle Community Notes riflette una volontà di incentivare il dibattito aperto. Secondo il CEO, etichettare contenuti come falsi si tradurrebbe spesso in un’accusa di censura, alimentando ulteriori divisioni. Con le Community Notes, Meta cerca di ridurre questa percezione, favorendo invece la responsabilizzazione diretta degli utenti e delle loro interazioni.

  1. Pressioni politiche negli Stati Uniti

Da tempo Meta è sotto il fuoco incrociato dei due principali attori politici americani. L’amministrazione Biden aveva accusato le piattaforme di disinformazione legata al COVID-19, spingendo per maggiori controlli sui contenuti. Con l’amministrazione Trump, di nuova elezione, l’accusa predominante si sposta verso la censura delle opinioni conservatrici. Zuckerberg sembra quindi allinearsi alle richieste politiche prevalenti, adottando un approccio più minimalista sulla moderazione.

  1. Riduzione dei costi operativi

Il processo di verifica condotto da fact checker professionisti comportava ingenti investimenti economici. Meta collaborava con numerose organizzazioni di fact checking riconosciute, comprese Reuters e The Associated Press, per monitorare milioni di contenuti. Attraverso le Community Notes, l’azienda mira a ridurre drasticamente questi costi, delegando la responsabilità ai propri utenti.

Limiti del modello Community Notes

Se il modello proposto da Meta promette di democratizzare la moderazione – e viene presentato come uno strumento che favorisce la pluralità delle opinioni e la decentralizzazione del controllo informativo – le esperienze esistenti, come quelle raccolte con il sistema analogo di X, sollevano negli esperti dubbi significativi sulla reale efficacia delle Community Notes. Il rischio maggiore è che questa scelta amplifichi la disinformazione anziché ridurla: la delega agli utenti può rappresentare una fuga dalle responsabilità istituzionali della piattaforma, lasciando le persone più vulnerabili di fronte all’ondata di notizie false o manipolate.

  • Lentezza del processo

Le Community Notes richiedono l’intervento di un numero elevato di utenti per approvare o rifiutare una nota. Questo meccanismo rallenta notevolmente i tempi di reazione rispetto al fact checking professionale, creando un ritardo che lascia i contenuti falsi attivi e virali per giorni o persino settimane prima di essere contestualizzati.

  • Inefficacia nel tracciare disinformazione complessa

I post manipolati non sempre possono essere contestualizzati efficacemente da una massa informe di utenti. Narrazioni sofisticate o contenuti intenzionalmente ambigui, come quelli prodotti da campagne di disinformazione statale (Russia, Cina, ecc.), rischiano di passare inosservati o di essere minimizzati, specialmente se gli utenti non dispongono delle competenze tecniche per riconoscerli.

  • Vulnerabilità alle manipolazioni politiche

Il modello basato sulle prospettive degli utenti si presta a manipolazioni da parte di gruppi organizzati che condividano uno stile politico o ideologico. Come già osservato con X, le Community Notes possono essere gaming, ovvero organizzate per sostenere narrazioni fuorvianti attraverso campagne coordinate, annullando così la funzione prevista originariamente.

  • Assenza di autorevolezza

Dove il fact checking tradizionale coinvolge esperti qualificati e fonti trasparenti, le Community Notes basano il proprio giudizio su un consenso generalizzato. Questo approccio abbassa drasticamente il tasso di attendibilità delle verifiche e allontana gli utenti più esigenti dal considerarle un riferimento sicuro e autorevole.

Non solo Meta: cosa sta succedendo al fact checking di Google e LinkedIn

L’annuncio del gruppo di Zuckerberg sembra aver fatto da apripista a decisione analoghe sul fact checking da parte di altri colossi Big Tech, che stanno modificando radicalmente il loro approccio alla verifica dei fatti. Tra i principali protagonisti vi sono Google e LinkedIn, che hanno recentemente comunicato il disimpegno da iniziative di contrasto alla disinformazione, in particolare nel contesto del Codice di Condotta sulla Disinformazione introdotto dall’Unione Europea nel 2022.

Nello specifico, Google – che, per quanto sia superfluo ricordarlo, è gigante tra i motori di ricerca e proprietario della piattaforma di video YouTube – ha annunciato di non voler integrare strumenti di fact checking nei risultati di ricerca e nei contenuti ospitati sul suo portale video. La notizia risale alle prime settimane del 2025, poco prima che gli obblighi previsti dal Digital Services Act (DSA) entrassero pienamente in vigore. Questo disimpegno segna un passo indietro rispetto agli impegni che Google aveva assunto con la firma del Codice di Condotta della UE, il quale obbligava le piattaforme a collaborare con organizzazioni di fact checking per etichettare e analizzare i contenuti falsi. Pur partecipando inizialmente alle discussioni con la Commissione Europea, l’azienda ha dichiarato che il fact checking “non è appropriato né praticabile” per i suoi prodotti principali.

Anche LinkedIn, piattaforma di networking professionale di proprietà di Microsoft, ha deciso di abbandonare definitivamente ogni impegno relativo alla verifica dei fatti. Sebbene non sia tradizionalmente vista come una fonte primaria di notizie, la diffusione di contenuti problematici è comunque aumentata sulla piattaforma, in particolare post e articoli ricondivisi legati a temi politici o economici. Nonostante ciò, l’azienda ha dichiarato che le attività di fact checking non si allineano con la natura professionale della piattaforma e che non rappresentano una priorità strategica.

Queste decisioni segnalano una ritirata graduale ma evidente delle principali Big Tech dal contrasto alla disinformazione, in un momento in cui l’Unione Europea sta cercando di imporre standard sempre più stringenti con normative come il DSA. Il disimpegno di Google e LinkedIn crea un serio precedente, sollevando dubbi sull’efficacia complessiva delle iniziative globali per proteggere gli utenti dalla diffusione incontrollata di fake news.

Il “no” di Google e LinkedIn al fact checking sotto l’ombrello UE

La ritirata di Google e LinkedIn si inserisce nel contesto del Codice di Condotta sulla Disinformazione, un’iniziativa lanciata dalla Commissione Europea nel 2022 per richiedere alle piattaforme online di collaborare con fact checker indipendenti e adottare azioni concrete contro la disinformazione. Pur essendo inizialmente volontario, il codice è destinato a diventare giuridicamente vincolante con il Digital Services Act, che prevede obblighi stringenti per le “Very Large Online Platforms” (VLOP), come rimozione veloce di contenuti falsi e trasparenza nelle metodologie di moderazione.

A gennaio 2025 Google ha ufficializzato il suo ritiro dagli accordi, comunicandolo direttamente a Renate Nikolay, la responsabile dei contenuti e delle tecnologie per la Commissione Europea. La società ha dichiarato che incorporare strumenti di verifica direttamente nei risultati di ricerca o nei video di YouTube comporterebbe una complessità non sostenibile e non si adatta al modello di ricerca imparziale su cui Google basa la sua reputazione. LinkedIn, invece, ha annunciato in parallelo la cessazione di qualsiasi programma di moderazione legato al fact checking, definendo tali attività come “non pertinenti al profilo della piattaforma”.

Questi passi indietro complicano l’attuazione degli standard europei, che avevano l’obiettivo di creare un alleanza trasversale contro la disinformazione. Ora, una parte significativa del controllo delle notizie online è a rischio di rimanere scoperta nei confronti delle sfide poste da propaganda, fake news e contenuti manipolatori.

Quali sono le motivazioni dei colossi digitali

Le dichiarazioni di Google e LinkedIn mettono in evidenza una strategia comune basata su ragioni economiche, operative e normative, che mirano a proteggere i rispettivi modelli di business senza compromettere l’efficienza delle piattaforme.

  1. Incompatibilità con i modelli di business

Google sostiene che integrare strumenti di fact checking nei propri algoritmi di ricerca e su YouTube sarebbe “non pertinente, rilevante o praticabile” rispetto alla natura dei suoi servizi. L’azienda ha ribadito che il suo focus è sulla libertà di ricerca e sul fornire risultati che riflettano la diversità delle opinioni, mantenendo negli strumenti come “Info su questa immagine” e “Info su questo risultato” un approccio più neutrale e esplorativo, senza giudizi espliciti sull’attendibilità.

Per LinkedIn, piattaforma con una vocazione professionale, l’inserimento di verifiche strutturate nei contenuti generati dagli utenti non rappresentava una priorità significativa. Secondo Microsoft, proprietaria di LinkedIn, il fact checking “non rientra nel profilo di rischio principale” della piattaforma, basata più su interazioni tra individui che su contenuti giornalistici o virali a impatto collettivo.

  1. Complessità normativa e costi operativi

Le richieste avanzate dall’UE sotto il Codice di Condotta e il DSA implicano investimenti in risorse e infrastrutture per monitorare e moderare le informazioni a livello pan-europeo, rispettando standard locali. Per aziende globali come Google e LinkedIn, questo rappresenta uno sforzo che, secondo loro, non giustifica il risultato, portando a un chiaro conflitto tra compliance normativa e sostenibilità operativa .

  1. Pressioni geopolitiche

La crescente regolamentazione europea, rafforzata dall’introduzione del DSA, è stata percepita come un tentativo di limitare il controllo delle piattaforme digitali statunitensi sull’informazione. Nel contesto della competizione tra Stati Uniti e Unione Europea per la sovranità digitale, Big Tech come Google e LinkedIn sembrano intenzionate a proteggere le proprie priorità strategiche, evitando vincoli ritenuti troppo restrittivi e favorendo approcci più flessibili nei mercati tradizionalmente meno regolamentati.

Critiche e conseguenze: cosa rischiamo davvero

Le scelte compiute da Meta, Google e LinkedIn evidenziano una tendenza globale a decentralizzare la responsabilità della moderazione sui contenuti o, nei casi più estremi, ad allentare del tutto i controlli. Le conseguenze di queste decisioni si riflettono su più livelli, sia a breve termine che sul lungo periodo, con impatti significativi su cittadini, istituzioni e media.

  • Aumento della disinformazione

Senza specifici sistemi dedicati alla verifica delle informazioni, piattaforme con milioni di utenti giornalieri rischiano di diventare terreni fertili per fake news e propaganda, spesso orchestrate da attori con precisi obiettivi. La disinformazione non viene più corretta in modo tempestivo: questo favorisce cicli di condivisione incontrollata, intensificando la diffusione di contenuti falsi e manipolatori.

Gli studi di NewsGuard hanno già dimostrato che, anche con il supporto del fact checking, solo il 14% della disinformazione proveniente da fonti come Russia e Cina veniva effettivamente intercettato. Con le recenti decisioni, quel dato potrebbe addirittura ridursi ulteriormente.

  • Riduzione dell’affidabilità delle piattaforme digitali

La perdita del supporto professionale nel verificare le informazioni mina la fiducia degli utenti in piattaforme come Facebook, YouTube e LinkedIn. Questo calo di credibilità non penalizza solo l’utente finale, ma rischia di danneggiare l’accesso a informazioni accurate, lasciando un vuoto che può essere colmato da fonti alternative meno affidabili.

  • Rischi politici e sociali

In contesti di instabilità politica o alle soglie di eventi cruciali, come elezioni o crisi internazionali, la disinformazione può diventare uno strumento strategico di manipolazione. La riduzione degli strumenti di fact checking aumenta il rischio di interferenze straniere e polarizzazione sociale, con possibili ripercussioni sulla stabilità democratica.

Alcuni Paesi, come quelli in via di sviluppo, sono particolarmente vulnerabili a queste dinamiche, in quanto meno attrezzati a fronteggiare campagne orchestrate su larga scala. Il disimpegno dei grandi attori digitali lascia aperta la possibilità che la manipolazione informativa proliferi senza alcuna forma di limitazione.

  • Conseguenze normative e scontri geopolitici

Le decisioni di aziende come Google e LinkedIn potrebbero intensificare lo scontro tra Big Tech e Unione Europea. Mentre l’UE cerca di rafforzare il controllo sulla disinformazione tramite strumenti legislativi, tali scelte rischiano di rallentare o compromettere l’efficacia delle normative, costringendo le istituzioni europee a rivalutare i propri approcci.

Qual è il futuro del fact checking?

Insomma, il fact checking si trova di fronte a una serie di sfide che ne mettono a nudo i limiti strutturali e operativi. Nonostante il progresso compiuto negli ultimi anni nella lotta contro la disinformazione, il modello attuale si è dimostrato spesso insufficiente ad arginare fenomeni complessi come le campagne di propaganda internazionale e la rapida viralità delle fake news. Il citato studio condotto da NewsGuard ha evidenziato che, anche con sistemi di verifica in funzione, solo il 14% dei contenuti legati a campagne di disinformazione straniere (provenienti da Russia, Cina e Iran) viene effettivamente etichettato come falso o manipolato; a questo si aggiungono difficoltà strutturali, come la lentezza nella risposta e la dipendenza da risorse umane limitate rispetto alla vastità dei contenuti prodotti quotidianamente online.

In questo scenario non ottimale, l’avvento di nuove tecnologie e normative sta spingendo verso un ripensamento del modello stesso di verifica. Algoritmi di intelligenza artificiale, supervisione umana, e regolamentazioni globali come il Digital Services Act cercano di proporre soluzioni complementari, ma la loro reale efficacia rimane in discussione. Per il futuro del fact checking, sarà cruciale affrontare non solo l’approccio alle fake news, ma anche come integrare tecnologia, governance e collaborazione con le piattaforme digitali per arrivare a sistemi più rapidi, estesi e affidabili rispetto a quelli attuali.

Algoritmi, IA e il ruolo umano

L’introduzione di strumenti basati sull’intelligenza artificiale sta trasformando le capacità e i tempi del fact checking. Algoritmi avanzati permettono di analizzare grandi quantità di contenuti in tempo reale, identificando pattern di disinformazione, account sospetti e narrazioni propagandistiche. Ad esempio, tecnologie di machine learning possono individuare immagini manipolate, rilevare testi generati da chatbot e verificare rapidamente la provenienza di un contenuto. Tuttavia, nonostante l’efficienza della macchina, il contributo umano rimane indispensabile.

Il potenziale dell’intelligenza artificiale

L’AI generativa è uno strumento potente per gestire la complessità delle fake news. Tra le soluzioni più promettenti ci sono:

  • Analisi predittiva: algoritmi capaci di identificare contenuti sospetti prima che diventino virali.
  • Riconoscimento semantico: strumenti in grado di capire il significato e il contesto di una frase, distinguendo tra dichiarazioni satiriche, affermazioni neutrali e manipolazioni deliberate.
  • Elaborazione di contenuti multimediali: piattaforme in grado di setacciare miliardi di immagini o video per rilevare modifiche impercettibili e attribuire loro una fonte originaria.

Ad esempio, software come CrowdTangle (utilizzato da più piattaforme social) monitora la diffusione di contenuti sui social media, fornendo ai fact checker dati sull’andamento virale delle informazioni. Questo consente di agire rapidamente per prevenire ulteriori diffusioni.

L’insostituibilità dell’intelligenza umana

Nonostante i progressi tecnologici, nessun algoritmo è in grado di replicare del tutto la capacità critica umana di comprendere le sfumature culturali, valoriali o politiche di un’informazione. Un’IA può valutare la coerenza di un dato con altre fonti, ma solo un fact checker umano può individuare il contesto di una narrazione o i potenziali bias sottostanti.

Registrazione
Gestisci la tua visibilità con precisione
Controlla ogni dettaglio della tua strategia e migliora le tue performance

La presenza umana è inoltre cruciale per garantire trasparenza e affidabilità. I fact checker, con i loro metodi documentati e accessibili al pubblico, agiscono come garanzie di buona fede, consolidando la fiducia delle persone nel processo di verifica. Intervenire su argomenti polarizzanti o di valore emotivo elevato richiede una sensibilità e un giudizio che solo un essere umano può offrire.

Nel futuro prossimo, il modello più efficace sarà quello ibrido: combinare algoritmi potenti ed efficienti con il controllo e la supervisione di esperti, creando un equilibrio tra automazione e interpretazione critica. Questo approccio risulterà particolarmente efficace in contesti dove la disinformazione evolve continuamente e richiede reazioni immediate ma ponderate.

La posizione dell’Europa e il Digital Services Act

Mentre gli Stati Uniti sembrano spingersi verso una decentralizzazione del controllo con modelli come le Community Notes, l’Europa sta adottando un approccio diametralmente opposto, basato su regole rigide e vincolanti per contrastare la disinformazione. In questo contesto, il Digital Services Act (DSA) diventa il punto di riferimento per regolare la diffusione dei contenuti online e garantire la responsabilità delle piattaforme.

Il DSA, approvato dall’Unione Europea, rappresenta una delle normative più ambiziose mai introdotte per contrastare i rischi della disinformazione. Questa legge impone regole severe alle Very Large Online Platforms, che includono giganti come Google, Meta e Amazon, richiedendo:

  • Obblighi di trasparenza: le piattaforme devono rendere pubbliche le metodologie utilizzate per rilevare e moderare fake news e contenuti legali ma dannosi.
  • Collaborazione diretta con fact checker e istituti di ricerca: l’UE vuole consolidare alleanze con enti specializzati per monitorare e smentire contenuti ingannevoli su larga scala.
  • Protezione dei processi democratici: particolare attenzione viene posta alla salvaguardia delle elezioni e alla prevenzione di manipolazioni politiche attraverso i social media.
  • Sanzioni rigorose: le aziende che non rispettano gli obblighi possono essere multate fino al 6% del loro fatturato globale annuo.

Questo quadro normativo rappresenta un tentativo non solo di regolare i contenuti, ma anche di attribuire una responsabilità diretta alle piattaforme digitali, che spesso si sono presentate come soggetti neutrali pur avendo un forte impatto sul flusso delle informazioni.

Le differenze con l’approccio statunitense

A differenza dell’Europa, la filosofia degli Stati Uniti verte su un approccio più laissez-faire, giustificato dall’importanza attribuita alla libertà di espressione. Modelli partecipativi come quello delle Community Notes di Meta riflettono questa prospettiva, delegando la verifica delle informazioni agli utenti stessi. Tuttavia, questa decentralizzazione presenta il rischio di amplificare i bias culturali, politici o ideologici, permettendo a gruppi organizzati di distorcere il vero senso del dibattito.

L’Europa, al contrario, punta a un controllo centralizzato e normato, che bilancia la libertà di espressione con la necessità di salvaguardare la qualità dell’informazione. Questo approccio normativo risulta particolarmente rilevante alla luce delle elezioni su scala continentale, dove la disinformazione può compromettere la stabilità politica.

Sfide e prospettive per l’Europa

Nonostante le sue ambizioni, il DSA pone sfide complesse sia alle istituzioni europee sia alle piattaforme tecnologiche. Implementare un sistema uniforme in tutti gli Stati membri richiede risorse notevoli e una stretta collaborazione tra governi, società civile e aziende tecnologiche. Inoltre, il rischio di scontro geopolitico con le Big Tech statunitensi, sempre più riluttanti a conformarsi ai vincoli europei, potrebbe rallentare l’applicazione delle regole del DSA.

Tuttavia, l’approccio normativo europeo è destinato a influenzare il dibattito globale, creando un modello replicabile anche in altre regioni del mondo. L’UE punta a dimostrare che una regolamentazione efficace non solo è possibile, ma necessaria per garantire un ecosistema informativo più sicuro e responsabile.

FAQ sul fact checking: le questioni e i dubbi principali sul tema

Il fact checking è un processo che, negli ultimi anni, ha assunto un ruolo centrale nel contrastare la disinformazione, soprattutto nell’ambiente digitale dominato dai social media e dai contenuti virali. Nonostante le sue caratteristiche tecniche e gli obiettivi dichiarati, attorno a questa pratica esistono ancora molte domande, dubbi e talvolta incomprensioni, aggravate dalle recenti decisioni delle Big Tech come Meta e Google. Questa sezione raccoglie le risposte alle domande più frequenti sull’argomento, chiarendo dubbi e offrendo strumenti per comprendere meglio l’importanza di questa attività cruciale per la salute del dibattito pubblico e la qualità dell’informazione.

  1. Che cosa si intende con il termine fact checking?

Il fact checking è il processo di verifica dell’accuratezza di un’affermazione, spesso contenuta in articoli, dichiarazioni pubbliche o post sui social media, con l’obiettivo di determinare se sia vera, falsa, manipolata o decontestualizzata. Questa pratica si basa sull’analisi di fonti attendibili come documenti ufficiali, studi scientifici o report giornalistici, ed è finalizzata a ridurre la diffusione di informazioni false o fuorvianti.

  1. Che significa fact checking?

Il termine fact checking, traducibile con “verifica dei fatti”, rappresenta un’attività che si concentra sull’accertamento della verità di un contenuto informativo. Non riguarda solo il giornalismo tradizionale, ma anche ambiti come la politica, i social media, la salute pubblica e le indagini accademiche. L’obiettivo principale è proteggere il pubblico dalla disinformazione e favorire una maggiore trasparenza.

  1. Quando nasce il fact checking?

Il fact checking ha origini lontane, con radici nel giornalismo del primo Novecento. Tuttavia, la sua formalizzazione come pratica specifica emerge negli anni ‘20 con la nascita di redazioni giornalistiche americane come quella del Time , dove erano previsti ruoli dedicati alla verifica dei contenuti prima della pubblicazione. Negli ultimi anni, il fenomeno ha visto una crescita esponenziale, spinta dalla necessità di arginare le fake news proliferate nelle piattaforme digitali.

  1. Chi sono i fact checker e a chi rispondono?

I fact checker sono professionisti specializzati che lavorano per organizzazioni indipendenti, media tradizionali o piattaforme digitali con il compito di analizzare e verificare le informazioni. Ad esempio, enti come l’International Fact-Checking Network (IFCN) stabiliscono standard di trasparenza e imparzialità a cui i fact checker devono aderire. Sebbene possano collaborare con aziende come Meta o Google, i fact checker mantengono un’indipendenza operativa e metodologica per evitare interferenze politiche o commerciali.

  1. Che compito svolgono i fact checker?

Il compito dei fact checker consiste nel controllare la veridicità di contenuti diffusi online o offline, utilizzando fonti verificabili e dati oggettivi. Analizzano articoli, dichiarazioni politiche, post sui social media e contenuti multimediali per fornire al pubblico una valutazione chiara e dettagliata sull’accuratezza dell’informazione. Inoltre, spiegano i loro metodi per consentire agli utenti di comprendere e fidarsi dei risultati.

  1. Qual è la funzione dei siti di fact checking?

I siti di fact checking hanno il compito di analizzare e verificare affermazioni controverse o notizie virali, fornendo una valutazione accurata del loro grado di veridicità. Offrono anche spiegazioni dettagliate sul metodo di verifica, alimentando un ecosistema informativo più trasparente e responsabile. Esempi noti includono Facta.news in Italia o Snopes a livello internazionale.

  1. È vero che il fact checking equivale a censura?

No, il fact checking non equivale a censura. Questa pratica non rimuove contenuti né limita la libertà di espressione, ma aggiunge contesto e corregge dichiarazioni inesatte, lasciando agli utenti la possibilità di accedere a una conoscenza più informata. Accuse di censura sono spesso legate a interpretazioni errate del ruolo dei fact checker, che lavorano per garantire trasparenza e accuratezza senza impedire il dibattito.

  1. Cosa sta succedendo col fact checking sui social?

Le piattaforme social stanno ridimensionando o trasformando i propri approcci al fact checking. Meta, ad esempio, ha sostituito il suo Third-Party Fact-Checking Program negli Stati Uniti con un sistema partecipativo chiamato Community Notes, mentre Google e LinkedIn hanno abbandonato del tutto il supporto ai fact checker, soprattutto per ragioni strategiche e normative. Questi cambiamenti sollevano preoccupazioni sull’efficacia nel contrastare la disinformazione.

  1. Meta eliminerà il fact checking in Europa?

Al momento, Meta ha deciso di mantenere il programma di fact checking in Europa, in parte per rispettare le normative stringenti dell’Unione Europea come il Digital Services Act (DSA). Tuttavia, l’introduzione del sistema Community Notes negli Stati Uniti ha sollevato interrogativi sul suo futuro approccio globale. In caso di un’espansione del modello americano, l’UE potrebbe opporsi e adottare misure correttive.

  1. Come possiamo verificare autonomamente una notizia?

Verificare autonomamente una notizia richiede alcune semplici precauzioni:

  • Controllare la fonte: è affidabile ed esperta?
  • Cercare conferme: la stessa informazione è stata riportata da altre fonti autorevoli?
  • Analizzare i dettagli: date, nomi e immagini corrispondono al contesto?
  • Usare strumenti digitali: la ricerca inversa delle immagini su Google o l’analisi di URL sospetti sono tecniche preziose.

Educarsi a un approccio critico alle informazioni è il primo passo per diventare più capaci di resistere alla disinformazione.

7 giorni di Prova Gratuita

Aumenta la tua visibilità online con SEOZoom!
TOP