Pubblicato il 22 ottobre 2025
Uno studio ha rilevato che modelli di intelligenza artificiale come ChatGPT travisano regolarmente gli eventi di notizie, fornendo risposte errate alle domande quasi la metà delle volte.
Lo studio, pubblicato mercoledì dalla European Broadcasting Union (EBU) e dalla BBC, ha valutato l’accuratezza di oltre 2.700 risposte fornite da ChatGPT di OpenAI, Gemini di Google, Copilot di Microsoft e Perplexity.
Storie consigliate
elenco di 4 elementifine dell’elenco
Ventidue media pubblici, in rappresentanza di 18 paesi e 14 lingue, hanno posto una serie comune di domande agli assistenti AI tra la fine di maggio e l’inizio di giugno per lo studio.
Nel complesso, secondo la ricerca, il 45% delle risposte riguardava almeno un problema “significativo”.
L’approvvigionamento è stato il problema più comune, con il 31% delle risposte che includevano informazioni non supportate dalla fonte citata o attribuzioni errate o non verificabili, tra le altre questioni.
La mancanza di accuratezza è stata il secondo fattore che ha contribuito maggiormente alle risposte errate, colpendo il 20% delle risposte, seguita dall’assenza di un contesto appropriato, con il 14%.
Secondo lo studio, i Gemelli hanno avuto i problemi più significativi, principalmente legati all’approvvigionamento, con il 76% delle risposte interessate.
Secondo la ricerca, tutti i modelli di intelligenza artificiale studiati commettevano errori fattuali di base.
Gli errori citati includono Perplexity che sostiene che la maternità surrogata è illegale nella Repubblica Ceca e ChatGPT che nomina Papa Francesco pontefice in carica mesi dopo la sua morte.

OpenAI, Google, Microsoft e Perplexity non hanno risposto immediatamente alle richieste di commento.
In una prefazione al rapporto, Jean Philip De Tender, vice generale dell’EBU, e Pete Archer, responsabile dell’intelligenza artificiale presso la BBC, hanno invitato le aziende tecnologiche a fare di più per ridurre gli errori nei loro prodotti.
“Non hanno dato priorità a questo problema e devono farlo ora”, hanno detto De Tender e Archer.
“Devono anche essere trasparenti pubblicando regolarmente i loro risultati per lingua e mercato”.
Jonathan Hendrickx, professore assistente di studi sui media presso l’Università di Copenaghen, ha affermato che i risultati evidenziano la necessità di promuovere l’alfabetizzazione mediatica tra i consumatori di notizie fin dalla giovane età.
“L’aumento della disinformazione e dei contenuti generati dall’intelligenza artificiale sfuma più che mai i confini di ciò che è reale o no”, ha detto Hendrickx ad Oltre La Linea.
“Ciò pone un grosso problema per i professionisti dei media, i regolatori e gli educatori che necessitano di cure e attenzioni urgenti”.




