I nuovi strumenti video basati sull’intelligenza artificiale aumentano le preoccupazioni sui deepfake in vista delle elezioni

Daniele Bianchi

I nuovi strumenti video basati sull’intelligenza artificiale aumentano le preoccupazioni sui deepfake in vista delle elezioni

Il video rilasciato da OpenAI per svelare il suo nuovo strumento di conversione testo in video, Sora, deve essere visto per crederci. Scene fotorealistiche di mammut lanosi in carica tra nuvole di neve, una coppia che cammina tra i fiori di ciliegio che cadono e riprese aeree della corsa all'oro in California.

Secondo quanto riferito, la manifestazione ha spinto il produttore cinematografico Tyler Perry a sospendere un investimento di 800 milioni di dollari in studio. Strumenti come Sora promettono di tradurre la visione di un utente in immagini in movimento realistiche con un semplice messaggio di testo, secondo la logica, rendendo gli studi cinematografici obsoleti.

Altri temono che l’intelligenza artificiale (AI) come questa possa essere sfruttata da chi ha un’immaginazione più oscura. Gli autori malintenzionati potrebbero utilizzare questi servizi per creare deepfake altamente realistici, confondere o fuorviare gli elettori durante le elezioni o semplicemente causare il caos seminando voci controverse.

Le autorità di regolamentazione, le forze dell’ordine e le piattaforme di social media stanno già lottando per far fronte all’aumento della disinformazione generata dall’intelligenza artificiale, compreso l’audio falso di leader politici che avrebbero contribuito a distorcere le elezioni in Slovacchia e a scoraggiare le persone dal votare alle primarie del New Hampshire.

I politici e la società civile temono che, man mano che questi strumenti diventeranno sempre più sofisticati, sarà più difficile che mai per la gente comune distinguere ciò che è reale da ciò che è falso.

Ma gli esperti di disinformazione politica e intelligenza artificiale affermano che il crescente utilizzo di prodotti di intelligenza artificiale è solo un nuovo aspetto di un vecchio problema. Questi strumenti non fanno altro che aggiungersi a un arsenale già ben fornito di tecnologie e tecniche utilizzate per manipolare e fuorviare.

Affrontare la sfida dei deepfake significa davvero affrontare le questioni irrisolte su come regolamentare le piattaforme di social media su cui si diffonderanno e rendere responsabili le aziende Big Tech quando i loro prodotti vengono lasciati aperti ad abusi.

“Questi generatori di immagini AI minacciano di peggiorare il problema della disinformazione elettorale, ma dovremmo essere ben consapevoli che è già un problema”, ha affermato Callum Hood, capo della ricerca presso il Center for Countering Digital Hate (CCDH), un gruppo di campagna. “Abbiamo già bisogno di misure più severe da parte delle piattaforme di social media su questo problema esistente”.

Diverse aziende che offrono creatori di immagini AI generative, tra cui Midjourney, OpenAI e Microsoft, hanno politiche che dovrebbero impedire agli utenti di generare immagini fuorvianti. Tuttavia, il CCDH afferma che queste politiche non vengono applicate.

In uno studio pubblicato il 6 marzo, il centro ha dimostrato che era ancora relativamente semplice generare immagini che avrebbero potuto rivelarsi pericolose nel contesto altamente partigiano delle elezioni statunitensi, comprese false immagini fotorealistiche del presidente Joe Biden in ospedale o che salutano i migranti il confine messicano e immagini in stile CCTV di manomissioni elettorali.

Queste immagini riflettono falsità comuni nella politica statunitense. L’ex presidente Donald Trump ha regolarmente promosso l’idea che i risultati delle elezioni del 2020 siano stati manipolati, una menzogna che ha contribuito a dare origine a violente proteste al Campidoglio nel gennaio 2021.

“Mostra [the companies] non ci ho pensato abbastanza”, disse Hood. “La grande vulnerabilità qui sta nelle immagini che possono essere utilizzate per supportare la narrazione di elezioni rubate o false accuse di frode elettorale”.

I ricercatori hanno riscontrato differenze significative nel modo in cui i singoli creatori di immagini hanno risposto ai suggerimenti: alcuni non consentivano agli utenti di creare immagini che fossero ovviamente di parte. “Queste differenze dimostrano che è possibile mettere in atto misure di salvaguardia efficaci”, ha affermato Hood, aggiungendo che ciò riflette una scelta da parte delle aziende.

“È sintomatico di uno squilibrio più ampio tra la motivazione al profitto e la sicurezza delle aziende di intelligenza artificiale”, ha affermato. “Hanno tutti gli incentivi a muoversi il più velocemente possibile con il minor numero di guardrail in atto in modo da poter lanciare prodotti, introdurre nuove funzionalità e ottenere un po’ di più in finanziamenti o investimenti. Non hanno alcun incentivo a rallentare ed essere prima al sicuro”.

OpenAI, Microsoft e MidJourney non hanno risposto alle richieste di commento.

Poco raggiunto

È probabile che tale incentivo arrivi solo sotto forma di regolamentazione che costringa le aziende tecnologiche ad agire e le penalizzi se non lo fanno. Ma gli esperti di disinformazione sui social media affermano di provare un senso di déja vu. Le conversazioni in corso sulla regolamentazione dell’intelligenza artificiale sembrano stranamente simili a quelle che si svolsero anni fa sulla diffusione della disinformazione sui social media. Le grandi aziende tecnologiche si sono impegnate a mettere in atto misure per contrastare la diffusione di pericolose falsità, ma il problema persiste.

“È come il Giorno della Marmotta”, ha affermato William Dance, ricercatore senior presso l'Università di Lancaster, che ha fornito consulenza ai dipartimenti governativi e ai servizi di sicurezza del Regno Unito sulla disinformazione. “E questo ti dice quanto poco, in realtà, abbiamo ottenuto negli ultimi 10-15 anni.”

Con le elezioni potenzialmente molto impegnative che si terranno quest’anno nell’Unione Europea, nel Regno Unito, in India e negli Stati Uniti, le aziende Big Tech si sono impegnate ancora una volta, individualmente e collettivamente, a ridurre la diffusione di questo tipo di disinformazione sulle loro piattaforme.

Alla fine di febbraio, Meta, proprietario di Facebook e Instagram, ha annunciato una serie di misure volte a ridurre la disinformazione e limitare la portata delle operazioni di influenza mirate durante le elezioni del Parlamento europeo. Questi includono la possibilità di consentire ai partner di verifica dei fatti – organizzazioni indipendenti che Meta consente di etichettare i contenuti per suo conto – di etichettare i contenuti generati o manipolati dall’intelligenza artificiale.

Meta è stata tra le circa 20 aziende che hanno firmato un “accordo tecnologico”, che promette di sviluppare strumenti per individuare, etichettare e potenzialmente sfatare la disinformazione generata dall’intelligenza artificiale.

“Sembra che ci sia una sorta di modello vuoto che dice: 'Faremo del nostro meglio per proteggerci dal vuoto'”, ha detto Dance. “Disinformazione, incitamento all’odio, intelligenza artificiale, qualunque cosa”.

La confluenza di intelligenza artificiale non regolamentata e social media non regolamentati preoccupa molti nella società civile, soprattutto da quando molte delle più grandi piattaforme di social media hanno ridotto i team di “fiducia e sicurezza” responsabili di supervisionare la loro risposta alla disinformazione e alla disinformazione, all’incitamento all’odio e ad altri contenuti dannosi. . X – ex Twitter – ha perso quasi un terzo del suo staff di fiducia e sicurezza dopo che Elon Musk ha rilevato la piattaforma nel 2022.

“Ci troviamo in una situazione doppiamente preoccupante, in cui coloro che diffondono la disinformazione elettorale hanno a disposizione nuovi strumenti e capacità, mentre le società di social media, in molti casi, sembrano deliberatamente limitarsi in termini di capacità di agire sulla disinformazione elettorale. ”, ha detto Hood del CCDH. “Quindi è una tendenza davvero significativa e preoccupante”.

Prima che i cicli elettorali inizino sul serio, sarà difficile prevedere fino a che punto i deepfake prolifereranno sui social media. Ma parte del danno è già stato fatto, dicono i ricercatori. Man mano che le persone diventano più consapevoli della capacità di creare filmati o immagini falsi sofisticati, si crea un senso più ampio di sfiducia e disagio. Immagini o video reali possono essere liquidati come falsi, un fenomeno noto come il “dividendo del bugiardo”.

“Vado online, vedo qualcosa e mi chiedo: 'È reale? Questa intelligenza artificiale è generata?' Non posso dire altro”, ha detto Kaicheng Yang, ricercatore della Northeastern University che studia intelligenza artificiale e disinformazione. “Per gli utenti medi, suppongo che le cose andranno peggio. Non importa quanti contenuti autentici siano online. Finché la gente crede che ci sia molto, allora abbiamo un problema”.

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.