I modelli di intelligenza artificiale travisano gli eventi giornalistici quasi la metà delle volte, afferma lo studio

Daniele Bianchi

I modelli di intelligenza artificiale travisano gli eventi giornalistici quasi la metà delle volte, afferma lo studio

Uno studio ha rilevato che modelli di intelligenza artificiale come ChatGPT travisano regolarmente gli eventi di notizie, fornendo risposte errate alle domande quasi la metà delle volte.

Lo studio, pubblicato mercoledì dalla European Broadcasting Union (EBU) e dalla BBC, ha valutato l’accuratezza di oltre 2.700 risposte fornite da ChatGPT di OpenAI, Gemini di Google, Copilot di Microsoft e Perplexity.

Storie consigliate

elenco di 4 elementifine dell’elenco

Ventidue media pubblici, in rappresentanza di 18 paesi e 14 lingue, hanno posto una serie comune di domande agli assistenti AI tra la fine di maggio e l’inizio di giugno per lo studio.

Nel complesso, secondo la ricerca, il 45% delle risposte riguardava almeno un problema “significativo”.

L’approvvigionamento è stato il problema più comune, con il 31% delle risposte che includevano informazioni non supportate dalla fonte citata o attribuzioni errate o non verificabili, tra le altre questioni.

La mancanza di accuratezza è stata il secondo fattore che ha contribuito maggiormente alle risposte errate, colpendo il 20% delle risposte, seguita dall’assenza di un contesto appropriato, con il 14%.

Secondo lo studio, i Gemelli hanno avuto i problemi più significativi, principalmente legati all’approvvigionamento, con il 76% delle risposte interessate.

Secondo la ricerca, tutti i modelli di intelligenza artificiale studiati commettevano errori fattuali di base.

Gli errori citati includono Perplexity che sostiene che la maternità surrogata è illegale nella Repubblica Ceca e ChatGPT che nomina Papa Francesco pontefice in carica mesi dopo la sua morte.

Interactive_AI_EBU_Report-Oct22_2025

OpenAI, Google, Microsoft e Perplexity non hanno risposto immediatamente alle richieste di commento.

In una prefazione al rapporto, Jean Philip De Tender, vice generale dell’EBU, e Pete Archer, responsabile dell’intelligenza artificiale presso la BBC, hanno invitato le aziende tecnologiche a fare di più per ridurre gli errori nei loro prodotti.

“Non hanno dato priorità a questo problema e devono farlo ora”, hanno detto De Tender e Archer.

“Devono anche essere trasparenti pubblicando regolarmente i loro risultati per lingua e mercato”.

Jonathan Hendrickx, professore assistente di studi sui media presso l’Università di Copenaghen, ha affermato che i risultati evidenziano la necessità di promuovere l’alfabetizzazione mediatica tra i consumatori di notizie fin dalla giovane età.

“L’aumento della disinformazione e dei contenuti generati dall’intelligenza artificiale sfuma più che mai i confini di ciò che è reale o no”, ha detto Hendrickx ad Oltre La Linea.

“Ciò pone un grosso problema per i professionisti dei media, i regolatori e gli educatori che necessitano di cure e attenzioni urgenti”.

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.