L’intelligenza artificiale è già una presenza tangibile nel mondo del giornalismo globale, ma quali sono realmente i suoi impatti nella gestione quotidiana delle redazioni italiane? È una domanda complessa, legata profondamente a dinamiche evolutive che mescolano tecnologia, etica e strategie editoriali. Nel recente webinar di SEOZoom Academy abbiamo avuto il piacere di ospitare Anton Filippo Ferrari, giornalista di TPI, che ci ha aiutato a capire meglio proprio in che modo il giornalismo italiano stia reagendo e adattandosi a questa novità e quali siano i rischi e le opportunità di un’applicazione sempre più diffusa dell’IA nelle newsroom. Con la sua esperienza diretta, Ferrari ci ha offerto una prospettiva equilibrata ma critica, evidenziando i modi in cui l’AI sta già contribuendo all’efficienza operativa nelle redazioni, pur senza dimenticare il rischio di una perdita di qualità e profondità nelle notizie.
Giornalismo e AI: automatizzazione svilente o evoluzione della professione?
Il giornalismo si trova oggi ad affrontare un bivio importante: l’introduzione sempre più diffusa di strumenti di intelligenza artificiale per scrivere testi spinge a una riflessione critica su ciò che potrebbe rappresentare il futuro del mestiere. Ci chiediamo se l’AI sia destinata a evolvere la professione, supportando i giornalisti in modo utile e complementare, oppure se rischi di automatizzare eccessivamente i processi, svuotando il giornalismo della sua dimensione critica, creativa ed etica.
La risposta ovviamente non è univoca: da una parte, l’AI offre una promessa tangibile di efficienza e precisione, soprattutto nelle componenti più tecniche e standardizzabili del lavoro giornalistico. Dall’altra, vi è sempre il rischio che l’automatizzazione troppo spinta porti a un appiattimento della qualità dei contenuti, privandoli delle sfumature tipiche della sensibilità umana. Non si tratta semplicemente di “macchine contro uomini”, ma piuttosto di comprendere come integrare l’AI nei flussi di lavoro in modo che rispetti le peculiarità della professione giornalistica, come d’altra parte noi di SEOZoom abbiamo cercato di professare sin dai primi momenti di questa rivoluzione.
L’AI come supporto alle attività giornalistiche: tra efficacia e limiti
Uno degli aspetti emersi con maggior forza durante il webinar con Anton Filippo Ferrari è l’utilizzo crescente degli strumenti di AI a supporto delle attività giornalistiche di routine, mirate principalmente a semplificare e alleggerire il carico dei compiti più tecnici e ripetitivi. In molte redazioni italiane e internazionali, infatti, l’intelligenza artificiale ha già trovato applicazione in ambiti come le trascrizioni automatizzate, l’aggregazione e la classificazione di dati, fino ad arrivare all’elaborazione di contenuti su base numerica, come nel caso del data journalism.
L’uso dell’IA consente ai giornalisti di risparmiare ore preziose, che prima venivano impiegate in compiti di pura esecuzione operativa. Monrif, ad esempio, ha introdotto una piattaforma che agevola i giornalisti nelle verifiche editoriali e nei suggerimenti SEO, lasciandoli liberi di concentrarsi su compiti a maggior valore aggiunto, come l’analisi critica e la scrittura creativa. Allo stesso modo, altre redazioni come Il Sole 24 Ore utilizzano tool di AI per trascrivere interviste e assistono i giornalisti con strumenti di editing automatizzato, permettendo loro di focalizzarsi sugli approfondimenti più complessi.
La trascrizione e l’editing non rappresentano comunque l’unico campo in cui l’AI si dimostra utile. Altrove, nello scenario globale, strumenti come Heliograf del Washington Post stanno spianando la strada a un nuovo genere di content generation automatizzata. Heliograf è in grado di produrre articoli dai dati strutturati (ad esempio le notizie elettorali o sportivi) con una supervisione umana minima. Ciononostante, il lavoro dei giornalisti rimane sulle spalle dell’interpretazione critica e della contestualizzazione della notizia, che ancora sfugge alle macchine.
In tutto questo, emerge sicuramente un miglioramento in termini di efficienza e produttività nelle redazioni. Ma vi sono limiti evidenti, soprattutto quando ci si affida totalmente ai sistemi automatizzati senza il necessario filtro umano.
Trascrizioni, classificazioni e data journalism: un’automatizzazione “saggia”?
La trascrizione automatizzata è senza dubbio una delle applicazioni dell’intelligenza artificiale più apprezzate dai giornalisti, specie se confrontata a metodi tradizionali che richiedono tempo e concentrazione. Gli strumenti come Whisper, apprezzato a livello internazionale, consentono di trasformare una lunga conversazione o intervista in un testo editabile in poche battute. È uno strumento che viene particolarmente utilizzato nelle ricerche su larga scala, nelle interviste multi-partecipante o nelle sessioni che richiedono molte ore di registrazione.
Non meno significativo è l’apporto dato dall’AI nel data journalism. Mentre una volta i giornalisti dovevano perdersi tra le pagine di enormi dataset e fogli di calcolo per individuare i trend o le notizie “nascoste”, oggi algoritmi di machine learning possono individuare correlazioni significative e fare il bulk del lavoro, restituendo insight preziosi che un giornalista può approfondire e poi raccontare nel proprio articolo. Questo approccio viene raramente considerato “sottrazione” di lavoro umano, poiché i dati estratti dall’IA rendono anzi più agile e mirata l’indagine giornalistica.
Anche le classificazioni automatiche di eventi e informazioni (come tipologia di argomenti o fonti) hanno un potenziale ridondante per le redazioni, specie quelle che si dedicano alle breaking news o alla cronaca mondiale in tempo reale. Tuttavia, emerge un problema che persiste: la preservazione della rilevanza. Se l’AI estrae e classifica le informazioni, spetta ancora all’essere umano dipanarle con sensibilità, evitando il rischio di appiattimento lessicale o di una semplice riproposizione numerica di fatti privi di profondità interpretativa.
Aiuto o minaccia? Il rischio di appiattimento della produzione di contenuti
Se da un lato la trascrizione automatica e i processi di classificazione algoritmica migliorano nettamente l’efficienza delle redazioni, dall’altro sollevano preoccupazioni non indifferenti sui rischi di una produzione di contenuti sterile e priva di sfumature, una criticità analizzata a più riprese durante il webinar.
Le macchine non possono essere critiche, non comprendono il contesto sociale o politico dietro una notizia, e possono facilmente imbattersi in generalizzazioni appiattite che riducono articoli e reportage complessi a semplici liste di numeri o fatti decontestualizzati. In tal senso, fa “scuola” il caso di CNET, sito che nel 2023 ha sperimentato la creazione di articoli automatizzati utilizzando strumenti di intelligenza artificiale generativa: tuttavia, la qualità dei contenuti prodotti era ben al di sotto delle aspettative, perché gli articoli generati dall’IA, soprattutto in ambito finanziario, contenevano errori grossolani e alcune parti dei testi risultarono imprecise o plagiate. Questo ha generato un impatto negativo sulla credibilità della testata, inducendo il team redazionale a intervenire per correggere manualmente il lavoro dell’AI e a mettere in pausa il progetto, arrecando un danno significativo alla reputazione di CNET.
Inoltre, come sottolinea il report dell’Ordine dei Giornalisti italiani “Intelligenza artificiale nelle redazioni italiane“, l’approccio deontologico richiesto dalla professione giornalistica non può essere replicato da un algoritmo. Il rischio è che l’AI, basandosi esclusivamente su dati e statistiche, ometta quei dettagli che umanizzano una notizia, o peggio ancora, amplifichi stereotipi e pregiudizi inconsapevolmente integrati nell’addestramento delle macchine. Siamo infatti ben lontani dal poter dire che gli algoritmi siano “imparziali”: la generazione automatizzata soffre notevolmente dell’influenza dei dataset di partenza, spesso costruiti secondo logiche aziendali o commerciali.
Altro rischio sostanziale è che affidarsi troppo a contenuti generati anziché creati possa progressivamente ridurre la credibilità e la verticalità delle competenze del giornalista. Lo stesso Anton Filippo Ferrari ha enfatizzato che, se il giornalismo utilizza l’AI per svolgere compiti ripetitivi, ciò può essere positivo finché queste vengono utilizzate sotto una supervisione critica. Tuttavia, l’AI non può, né potrà mai, sostituirsi alla capacità di un giornalista di “intervenire” nella narrazione, arricchendo una storia del proprio background culturale e della propria intuizione investigativa. Anche perché, come evidenziato con forza da Ferrari, uno dei primi compiti del giornalista è ancora “cercare e verificare le notizie, e in questo l’AI ha ancora molta strada da fare”.
AI nelle redazioni italiane: la situazione attuale
Andando ad analizzare l’integrazione delle tecnologie di intelligenza artificiale nel contesto redazionale italiano, notiamo che c’è un approccio misto: alcune redazioni stanno semplicemente testando le potenzialità di queste tecnologie, mentre altre hanno già avviato vere e proprie implementazioni operative. Queste ultime realtà maggiormente all’avanguardia hanno iniziato a valutare se e come l’AI possa facilitare il lavoro giornalistico, intervenendo come detto per ridurre il tempo dedicato agli incarichi ripetitivi e snellire i processi tecnici, ma sempre con un’attenzione particolare a preservare il pensiero critico e l’autonomia intellettuale del giornalista.
Tra le sperimentazioni più interessanti emergono i casi di Monrif e GEDI, due grandi gruppi editoriali che stanno esplorando rispettivamente l’utilizzo di Ai.Light e del supporto di OpenAI, con l’obiettivo sia di efficientare i flussi redazionali sia di migliorare la personalizzazione dei contenuti per una fruizione più mirata e user-friendly.
- Monrif: il progetto Ai.Light e il futuro della misurazione SEO
Uno degli esempi di maggior rilievo nel contesto italiano è sicuramente il progetto Ai.Light intrapreso da Monrif, che comprende testate ben note come Il Resto del Carlino, La Nazione e Il Giorno. Ai.Light è un’estensione di intelligenza artificiale integrata nei CMS interni del gruppo, sviluppata internamente da Robin, la divisione che si occupa delle soluzioni digitali di Monrif.
L’obiettivo di Ai.Light è quello di servire come vero e proprio supporto alla produzione e all’ottimizzazione dei contenuti digitali, facilitando il lavoro dei redattori. L’intelligenza artificiale svolge il ruolo di assistente virtuale, suggerendo migliorie per gli articoli in base ai criteri SEO, elaborando la scelta delle immagini e persino verificando la correttezza dei link e dei dati inseriti. Con oltre 50 parametri di controllo automatizzati, Ai.Light punta a ridurre il carico di mansioni tecniche, senza minimamente intaccare la supervisione e il controllo umano sul contenuto.
Ad esempio, durante la fase di revisione dei contenuti prima della pubblicazione, Ai.Light effettua una serie di controlli nella bozza dell’articolo, come la conformità dei titoli rispetto ai criteri SEO, la validità dei video e dei link inseriti, e suggerisce automatiche correzioni per massimizzare il posizionamento sui motori di ricerca. Questo consente ai team editoriali di focalizzarsi maggiormente sugli aspetti creativi e narrativi dell’articolo.
Uno degli aspetti più innovativi di Ai.Light risiede nella capacità di personalizzare i contenuti sulla base della geolocalizzazione della testata. Poiché testate come Il Resto del Carlino e QN vantano una forte vocazione territoriale, la geolocalizzazione automatica rappresenta un vantaggio competitivo importante: ogni articolo riceve suggerimenti basati su dati di rilevanza regionale o locale. L’algoritmo AI integrato è in grado di analizzare sia il contenuto testuale dell’articolo che le tendenze di ricerca nella regione di riferimento, ottimizzando titoli e parole chiave per meglio aderire alle esigenze locali – in pratica, orienta il contenuto per la SEO locale di riferimento. Inoltre, Ai.Light esegue geolocalizzazione automatica dei contenuti (individua contenuti rilevanti in base alla località e suggerisce le migliori keyword regionali per migliorare il posizionamento SEO) e analisi del comportamento utente (per suggerire articoli correlati locali o regionali, aumentando così il tempo di permanenza dell’utente sul sito e migliorando le metriche di engagement).
- GEDI e l’accordo con OpenAI: l’intelligenza artificiale al servizio del giornalismo
È notizia di queste ultime settimane l’accordo firmato tra GEDI e OpenAI, una partnership che ha come obiettivo principale sfruttare le tecnologie di intelligenza artificiale generativa per rendere accessibili i contenuti editoriali prodotti dalle principali testate del gruppo (come La Repubblica e La Stampa) tramite strumenti come ChatGPT.
Attraverso questa collaborazione, GEDI punta a migliorare la distribuzione capillare dei propri articoli e analisi su un pubblico globale. Non solo gli utenti di ChatGPT potranno accedere a citazioni e contenuti riassuntivi direttamente dalla piattaforma IA, ma sarà anche possibile trovare link diretti agli articoli completi sui rispettivi portali di origine.
Questo genere di accordo non solo permette al gruppo GEDI di espandere la propria audience oltre i confini nazionali, ma rappresenta un elemento strategico per accedere a nuovi modelli di distribuzione dei contenuti , strettamente integrati con le future tecnologie AI.
Uno dei punti salienti del partenariato con OpenAI riguarda proprio l’integrazione della tecnologia AI per creare sistemi di distribuzione più avanzati. Grazie all’accesso ai database editoriali di testate come La Repubblica, l’intelligenza artificiale può generare estratti automatici, migliorare l’indicizzazione su Google e persino suggerire la tracciabilità cross-platform dei link.
Questa collaborazione si prefigge di migliorare l’accessibilità ai dati storici del giornalismo italiano attraverso un’interfaccia estremamente intuitiva, eliminando i colli di bottiglia che derivano dal tracking manuale delle fonti e dei contenuti collegati. L’AI può ottimizzare il flusso di pubblicazioni, permettendo all’utente di passare facilmente da un contenuto sintetico, disponibile su ChatGPT, all’articolo completo presente sulle corrispondenti pagine web.
Tale innovazione assicura non solo un’aumentata esposizione degli articoli, ma consente anche una distribuzione più mirata che rispecchia le abitudini e i pattern di lettura del pubblico, delineando così un modello editoriale talmente dinamico da aprire nuove opportunità di monetizzazione.
Altro aspetto chiave della collaborazione tra GEDI e OpenAI riguarda la possibilità di accedere agli archivi storici delle testate tramite sistemi intelligenti: l’intelligenza artificiale aiuterà gli utenti a scoprire vecchi documenti, articoli e approfondimenti, rendendo fruibile un patrimonio spesso disperso su diverse piattaforme o vincolato da tecnologie obsolete.
Utilizzando strumenti di Machine Learning avanzato, gli articoli d’archivio potranno essere non solo facilmente consultati, ma anche contestualizzati. Gli utenti potranno visualizzare come alcune analisi passate si inseriscano in eventi successivi, offrendo un modo del tutto nuovo per interagire con la storia, migliorando quindi l’esperienza di comprensione e approfondimento delle news.
I progetti AI avviati nelle redazioni internazionali
Allargando l’analisi a livello internazionale, l’adozione dell’intelligenza artificiale nelle redazioni giornalistiche ha dimostrato di poter rivoluzionare vari aspetti della produzione delle notizie, dalla generazione automatica dei contenuti alla personalizzazione delle esperienze di lettura per gli utenti. Diversi gruppi editoriali di spicco hanno integrato l’AI con obiettivi strategici specifici, ottenendo incrementi di produttività, nuove modalità di monetizzazione e una maggiore efficacia nella gestione dei flussi informativi.
Uno dei casi più importanti e conosciuti è quello del britannico The Guardian, che con il suo sistema di paywall dinamico basato su AI ha cambiato il modo in cui progettare la distribuzione e la monetizzazione dei contenuti digitali. Il sistema di paywall dinamici di The Guardian ottimizza l’accesso alle notizie in funzione dell’interazione dell’utente con il sito: monitorando il comportamento di navigazione, l’algoritmo AI decide automaticamente quando mostrare articoli gratuiti e quando invece richiedere un abbonamento per visualizzare ulteriori contenuti. Questa strategia ha avuto un impatto positivo sulle conversioni, traducendosi in un aumento degli abbonamenti digitali. L’approccio targettizzato ha inoltre migliorato notevolmente l’esperienza utente, rendendo più pertinente e personalizzato l’offerta editoriale proposta a ogni singolo visitatore.
Un’altra sperimentazione pionieristica si è svolta presso lo statunitense The Washington Post, dove l’introduzione di Heliograf, un software di scrittura automatizzata basato su AI, ha significativamente trasformato il modo in cui vengono gestite le notizie di routine. Inaugurato nel 2016 per coprire i risultati sportivi e gli aggiornamenti elettorali, Heliograf si è progressivamente rivelato una risorsa essenziale per la pubblicazione di contenuti ciclici e ad alta frequenza, senza richiedere l’intervento costante dei giornalisti. Le notizie generate da Heliograf, basate su dati strutturati, sono risultate precise e tempestive per coprire eventi che ruotano principalmente attorno a numeri e statistiche. I reporter hanno potuto dedicare più tempo alla scrittura di articoli investigativi di maggiore rilievo, delegando i compiti ripetitivi e quantitativi al software AI, senza compromettere la puntualità del flusso di informazioni.
Il miglioramento dell’efficienza operativa grazie a strumenti come Heliograf ha offerto al Washington Post un chiaro vantaggio competitivo, permettendo di pubblicare breaking news in meno tempo e con maggiore accuratezza nelle prime fasi della copertura degli eventi. Oltre a ciò, l’impiego delle tecnologie AI ha ridotto l’errore umano inerente ai bollettini numerici , come quelli sportivi e finanziari, elementi che necessitano di aggiornamenti costanti e precisione nei dettagli.
Anche testate come Forbes e Associated Press hanno adottato approcci simili con piattaforme AI personalizzate per migliorare la produzione di notizie in serie. Ad esempio, la piattaforma Bertie di Forbes aiuta i redattori nella selezione di argomenti di tendenza e nel suggerire titoli ottimizzati per le piattaforme digitali, integrando anche immagini automatiche che migliorano la fruizione grafica delle notizie. Associated Press, invece, utilizza algoritmi AI per generare testi di giornalismo locale, coprendo eventi continuativi o su larga scala che richiedono aggiornamenti rapidi e ripetuti, come elezioni o disastri naturali.
Giornalismo e AI: i rischi e i limiti da affrontare
Non solo promesse e opportunità: l’impatto dell’AI comporta anche una serie di rischi molto concreti che minacciano uno dei pilastri fondamentali della professione giornalistica, come la veridicità e l’autenticità delle informazioni. Se da un lato i tool di AI possono migliorare l’efficienza operativa nelle redazioni, dall’altro facilitano la proliferazione di contenuti falsi e di notizie non verificate che fanno leva sulle debolezze strutturali della rete, come la disinformazione e la manipolazione mediatica.
L’impatto dell’intelligenza artificiale si è anche fatto sentire sul fronte del copyright, aprendo dibattiti su chi sia realmente il proprietario dei contenuti generati automaticamente e su quali siano i limiti legali in materia di licenze. Anche la relazione tra AI e giornalismo deve affrontare questo scoglio, con casi celebri di redazioni che hanno deciso di chiudere gli archivi ai modelli di machine learning a causa di violazioni dei diritti d’autore. La sfida più grande per i giornalisti italiani e internazionali sarà dunque trovare un equilibrio tra l’utilizzo delle nuove tecnologie e la protezione del mestiere giornalistico da minacce come la disinformazione, il plagio, e la manipolazione dei fatti.
La disinformazione e i siti generati da AI: un pericolo crescente
Uno dei pericoli maggiori derivanti dall’uso dell’intelligenza artificiale nel giornalismo è rappresentato dalla proliferazione di news farm completamente automatizzate, capaci di produrre e diffondere una quantità impressionante di contenuti spesso errati, incompleti o deliberatamente manipolati. La capacità dell’AI di generare testi coerenti in modo rapido e pressoché infinito ha dato vita ad una serie di siti che pubblicano articoli generati interamente dai modelli di AI, senza alcuna supervisione umana, creando così un ambiente ideale per la disinformazione.
Il fenomeno è particolarmente preoccupante in un’epoca in cui la quantità di informazioni disponibili online è già di difficile gestione. Questi contenuti, spesso del tutto privi di controllo deontologico, possono confondersi facilmente con le notizie reali, consentendo la diffusione massiccia di fake news e riducendo la fiducia complessiva degli utenti nelle fonti di informazione. Spesso, le piattaforme che alimentano questa disinformazione si presentano in forme che imitano i portali di news ufficiali, facendosi passare per testate giornalistiche autorevoli, ma producendo contenuti ancorati esclusivamente a logiche di clickbait e ad-revenue .
Il report di NewsGuard: 1.100 siti alimentati da AI
A tal proposito, il centro di monitoraggio internazionale NewsGuard ha recentemente pubblicato un rapporto che fotografa chiaramente le dimensioni del problema. Secondo il report, aggiornato a ottobre 2024, sono stati individuati 1.102 siti attivi in diverse regioni del mondo e in 16 lingue, che pubblicano articoli generati interamente da AI con poca o nessuna supervisione umana. Questi siti operano con nomi generici e in ingannevoli domini che spesso inducono il lettore a credere di trovarsi su fonti legittime.
Le piattaforme di disinformazione basate su AI tendono a specializzarsi in argomenti particolarmente vulnerabili alla manipolazione, quali politica, salute, tecnologia e celeb news. Tra le problematiche più diffuse, il report cita:
- Fake news cicliche, generate automaticamente e diffuse con cadenza strategica per anticipare eventi di rilevanza (elezioni politiche, crisi sanitarie, ecc.).
- Articoli mancanti di verifica, che talvolta contengono errori palesi derivanti proprio dall’automatizzazione indiscriminata del processo di scrittura.
- Contenuti distorti, come immagini generate da AI o riformulazioni fuorvianti di notizie precedenti, senza che sia dichiarato esplicitamente il loro carattere automatizzato.
Il problema centrale individuato da NewsGuard è la mancanza quasi totale di controllo editoriale su tali piattaforme, le quali riescono comunque a generare profitti tramite l’utilizzo di annunci pubblicitari programmatici: una metodologia in cui gli annunci vengono inseriti automaticamente, senza una selezione manuale da parte degli inserzionisti, incentivando così la diffusione di contenuti irresponsabili.
Combattere fake news e deepfake: il ruolo della supervisione umana
Per contrastare l’espandersi incontrollato delle fake news e la manipolazione prodotta dai deepfake — soprattutto video e immagini generati tramite AI generativa — il ruolo della supervisione umana diventa fondamentale. Se alcune testate hanno già implementato AI avanzate per combattere lo stesso fenomeno della disinformazione (come Google con i filtri contro le fake news sui social media), resta centrale l’intervento di professionisti in grado di riconoscere tendenze manipolatorie o notizie distorte.
Tra le misure più efficaci adottate a livello sistemico, possiamo evidenziare:
- Fact-checking umano: sebbene le AI possano contribuire in parte a verificare fatti e fonti, rimane centrale il lavoro delle testate giornalistiche affidato ai reporter specializzati, in grado di confermare o smentire dati attraverso verifiche trasversali.
- Rilevamento automatico dei deepfake: l’AI non si limita solo a produrre contenuti falsi, ma può anche giocare un ruolo cruciale nel riconoscimento dei deepfake, sia audio che visivi, offrendo strumenti validi per prevenire disinformazione video, particolarmente dannosa in ambiti politici globali.
Nonostante gli strumenti tecnologici possano aiutare a identificare schemi anomali, è essenziale che la curatela redazionale rimanga una costante nella filiera del giornalismo, specialmente considerando che prototipi di modelli linguistici come GPT sono alimentati da enormi dataset che a loro volta contengono pregiudizi culturali.
Etica e copyright: chi possiede i contenuti generati dall’AI?
Lo abbiamo detto: il legame tra AI e giornalismo solleva una questione molto delicata sul piano del copyright. Con l’aumentare delle redazioni che utilizzano tecnologie di intelligenza artificiale per scrivere articoli, produrre immagini o creare video, ci si interroga su chi sia realmente proprietario dei contenuti risultanti. Le discussioni sul diritto d’autore riguardano due dimensioni problematiche principali:
- I contenuti prodotti dall’AI. Se un articolo o un’immagine vengono generati dall’intelligenza artificiale, chi detiene esattamente i diritti d’autore? Il software di AI? L’azienda proprietaria del tool? O la redazione che sfrutta tale tecnologia? La mancanza di regolamentazione chiara in questo campo ha aperto le porte a una serie di battaglie legali già in atto in diversi paesi.
- I dati di training. Molti programmi di intelligenza artificiale, inclusi quelli di scrittura autonoma come ChatGPT, sono addestrati su enormi quantità di contenuti preesistenti reperiti da internet, inclusi articoli di giornale e saggi coperti da copyright. Questo solleva domande etiche rilevanti: quanto è equo e legittimo l’utilizzo di tali dati? Si tratta di plagio quando un modello AI riproduce parte di articoli per cui non ha ottenuto i diritti?
La mancata chiarezza su queste questioni rischia non solo di alimentare controversie legali ex post, ma di intaccare la fiducia del pubblico nei confronti di un giornalismo che rischia di apparire sempre più come derivato da scelte algoritmiche piuttosto che frutto di processi editoriali rigorosi.
I casi New York Times e Vox Media: cedere i contenuti conviene davvero?
Due tra le più emblematiche diatribe sulla questione del copyright nell’intelligenza artificiale riguardano la vicenda del New York Times e di Vox Media, protagonisti di controversi accordi con OpenAI e Microsoft per l’utilizzo dei loro archivi editoriali nel training dei sistemi di AI generativa. Tra 2023 e 2024, diverse testate di primo piano hanno stretto accordi milionari per cedere porzioni sostanziali dei propri archivi a piattaforme come ChatGPT, consentendo l’allenamento dei modelli su contenuti di alta qualità.
Il New York Times ha però cambiato rotta nel 2023, quando ha intentato una causa contro OpenAI, accusata di violazione del copyright e concorrenza sleale. Il quotidiano sosteneva che OpenAI avesse utilizzato articoli senza autorizzazione per addestrare i propri modelli, ottenendo profitti sulla base di contenuti generati con quel materiale — un accordo che secondo molti esperti del settore non conviene affatto agli editori.
Simile è la situazione di Vox Media, che inizialmente aveva concesso il licensing dei dati, ma in seguito si è rivelato incerto sui ritorni economici effettivi, rilevando come il modello di fruizione AI stia di fatto sottraendo traffico diretto ai siti delle testate, penalizzando le metriche che normalmente influenzano la pubblicità online.
Le reazioni del mercato italiano: cautela e criticità
In Italia, il dibattito è ancora legato a un certo grado di cautela. Le redazioni italiane si stanno muovendo solo gradualmente verso l’integrazione dell’intelligenza artificiale nei propri processi editoriali, temendo ripercussioni simili a quelle osservate a livello internazionale. Come visto, alcuni grandi gruppi come GEDI sono tra i pionieri in termini di sperimentazione, ma l’obiettivo comune è di non cedere il controllo, soprattutto sui contenuti di alta qualità. Le redazioni continuano a proteggere le loro banche dati, limitando l’accesso ai web crawler dei bot impiegati dalle piattaforme AI, richiedendo compensi adeguati per l’utilizzo e il riutilizzo dei contenuti.
L’Italia, grazie anche al lavoro di monitoraggio dell’Ordine dei Giornalisti, continua a riflettere sulla necessità di un quadro normativo chiaro, che possa proteggere tanto i contenuti originali quanto la professione giornalistica nell’integrità del suo lavoro.
Il futuro del giornalismo tra AI e innovazione: intervista ad Anton Filippo Ferrari
Giornalista professionista dal 2014, con alle spalle una lunga esperienza di collaborazione con quotidiani, radio e testate online (come l’attuale, TPI.it, che è anche un bi-settimanale), Anton Filippo Ferrari si occupa principalmente di contenuti online, al punto che “qualcuno mi potrebbe definire SEO Journalist, ma non so se è corretta come definizione”.
Nel corso del webinar di SEOZoom Academy, Ferrari ci ha fornito un approfondimento cruciale su come l’intelligenza artificiale stia riconfigurando la professione giornalistica e su come i giornalisti possano adattarsi a questo cambiamento in modo proattivo, senza perdere il controllo sulla qualità e sull’integrità del proprio lavoro.
Per approfondire ulteriormente questo tema, gli abbiamo sottoposto altre domande centrali, che esplorano anche il futuro della relazione tra AI e giornalismo e toccano argomenti come l’automatizzazione, l’originalità dei contenuti, il pensiero critico e integrare tecniche di ottimizzazione SEO nella produzione di news. Ecco le sue risposte.
- Hai dedicato un libro alla parola algoritmo – “L’algoritmo: Questo sconosciuto”: ci spieghi perché anche nel giornalismo questo tema è così importante?
Da tempo ormai sentiamo parlare di algoritmo, ma in molti non sanno cosa sia e come funziona. Ho deciso di scriverci un libro per provare a spiegarlo in modo semplice e intuitivo. Sentendo anche diversi esperti nei vari settori in cui incontriamo quotidianamente gli algoritmi. Nel giornalismo online da tempo l’algoritmo è importante. Banalmente ogni articolo che viene messo online incontra uno o più algoritmi che ne permettono l’indicizzazione sui motori di ricerca (Google in primis) e quindi la lettura di chiunque. Senza gli algoritmi i nostri articoli non verrebbero letti online….
- Qual è il ruolo attuale dell’Intelligenza Artificiale nelle redazioni italiane? E in quali fasi viene utilizzata principalmente?
Noi a TPI, al momento, non usiamo l’IA. In Italia, leggevo qualche giorno fa, l’IA viene usata dal 59 per cento delle aziende. Di queste solo il 3 per cento la usa per produzione di testi o foto. Insomma, numeri bassi. Riconosco che possa essere molto utile nel raccogliere dati, estrapolare informazioni da tanti file ecc, ma per la produzione di articoli mi sembra che la strada sia ancora molto lunga.
- Quali sono i rischi maggiori associati all’utilizzo dell’AI nel giornalismo?
Il primo che mi viene in mente è la verifica delle fonti. Un bravo giornalista deve verificare sempre ciò che scrive. L’IA può incrociare dati e informazioni, perfetto. Ma su quali basi. Non credo che ci si possa affidare totalmente a questa tecnologia. Serve ancora il cervello umano. Serve ancora andare fisicamente sul campo. E questo l’IA non può farlo. Per fortuna.
- Come affronti la questione dell’etica quando utilizzi strumenti AI nella produzione dei contenuti?
L’etica quando si parla di tecnologia, dell’IA in primis, è fondamentale. L’essere umano non può farsi comandare dalle macchine. Assistere sì, comandare mai. Il controllo deve essere sempre nelle nostre mani. Pensa all’utilizzo dell’IA nel mondo delle armi o della medicina. Non possiamo far decidere a una macchina se una persona, un essere umano, debba vivere o morire. Un medico, ad esempio, deve provare a salvare un paziente anche se ha solo lo 0,1 per cento di possibilità di successo…
- L’AI può influire sulla diversità e pluralità delle opinioni nei media?
Può dare una mano nel trovare più informazioni possibili. Ma poi sta al giornalista arrivare ad una conclusione. Ad un punto. È chiaro che bisogna sapere su quali basi si muove l’IA per capire se le conclusioni a cui è arrivata siano o meno viziate da qualche tipo di manipolazione esterna. Mi spiego meglio: se io fornisco alla “macchina” solo informazioni razziste, alla mia domanda avrò una risposta razzista….
- Come è cambiato il ruolo della SEO nel giornalismo negli ultimi anni?
La SEO per quanto riguarda il giornalismo online è sicuramente rilevante. Detto questo, una notizia è sempre una notizia. Prima viene sempre la notizia.
- Sono molte le redazioni italiane che utilizzano tool come SEOZoom: in che modo i tool SEO possono essere d’aiuto al giornalista?
Possono essere d’aiuto nel capire meglio cosa il lettore vuole. Cosa cerca sui motori di ricerca. In questo modo il giornalista può fornire più informazioni utili.
- Quali metriche SEO vengono monitorate regolarmente in una redazione giornalistica?
Nel nostro caso, guardiamo alle notizie. Come detto, la notizia viene sempre prima. Poi certo, cerchiamo di soddisfare le curiosità dei lettori fornendo loro, dopo attenta verifica, quello che cercano. Quindi vediamo le keyword più cercate, i suggerimenti di Google legati ai vari risultati… Il nostro obiettivo però resta quello di fare il nostro lavoro: dare notizie.
- C’è un focus maggiore su clic organici, tempo di permanenza, o altri indicatori di successo SEO?
So che tutti questi numeri hanno la loro importanza. Io però mi limito a produrre contenuti approfonditi, completi e verificati. Poi, certo, c’è grande soddisfazione se l’articolo viene letto da tante persone. Alla fine il nostro lavoro deve essere monetizzato… Ma di questo si occupa un altro ramo dell’azienda per cui lavoro.