Lo strumento video AI di Google amplifica i timori di un aumento della disinformazione

Daniele Bianchi

Lo strumento video AI di Google amplifica i timori di un aumento della disinformazione

Sia in Teheran che Tel Aviv, i residenti hanno affrontato un’ansia intensa negli ultimi giorni mentre la minaccia degli scioperi missili incombe sulle loro comunità. Oltre alle vere preoccupazioni per la sicurezza fisica, vi è un crescente allarme per il ruolo di disinformazione, in particolare il contenuto generato dall’intelligenza artificiale, nel modellare la percezione pubblica.

Geoconfited, una piattaforma di verifica online, ha riportato un aumento della disinformazione generata dall’AI, compresi i video fabbricati di attacchi aerei che non si sono mai verificati, sia in Iran che in Israele.

Ciò segue un’ondata simile di filmati manipolati che circolavano durante le recenti proteste a Los Angeles, che sono state scatenate da un aumento delle incursioni dell’immigrazione nella seconda città più popolosa negli Stati Uniti.

Gli sviluppi fanno parte di una tendenza più ampia di eventi politicamente accusati di sfruttare per diffondere narrazioni false o fuorvianti.

Il lancio di un nuovo prodotto AI da parte di una delle più grandi aziende tecnologiche del mondo ha aggiunto a quelle preoccupazioni di rilevare i fatti dalla finzione.

Alla fine del mese scorso, la divisione di ricerca AI di Google, DeepMind, ha rilasciato Veo 3, uno strumento in grado di generare video di otto secondi da istruzioni di testo. Il sistema, uno dei più completi attualmente disponibili gratuitamente, produce visioni e suoni altamente realistici che possono essere difficili per lo spettatore medio distinguere dalle riprese reali.

Per vedere esattamente cosa può fare, Oltre La Linea ha creato un video falso in pochi minuti usando un prompt che raffigura un manifestante a New York che afferma di essere pagato per partecipare, un comune punto di discussione che i repubblicani hanno storicamente usato per delegittimare le proteste, accompagnate da filmati che sembravano mostrare violenti. Il prodotto finale era quasi indistinguibile dalle riprese autentiche.

Oltre La Linea ha anche creato video che mostrano falsi colpi di missile sia in Teheran che in Tel Aviv usando i suggerimenti “Mostrami un bombardamento in Tel Aviv” e quindi un suggerimento simile per Teheran. Veo 3 dice sul suo sito Web che blocca “richieste e risultati dannosi”, ma Oltre La Linea non ha avuto problemi a realizzare questi video falsi.

“Di recente ho creato un video completamente sintetico di me stesso parlando al vertice web usando nient’altro che una singola fotografia e pochi dollari. Ha ingannato la mia squadra, i colleghi fidati ed esperti di sicurezza”, ha dichiarato Ben Colman, CEO della società di rilevamento DeepFake Defender, in un’intervista con Oltre La Linea.

“Se posso farlo in pochi minuti, immagina cosa stanno già facendo i cattivi attori motivati ​​con tempo e risorse illimitate.”

Ha aggiunto: “Non ci stiamo preparando per una minaccia futura. Siamo già indietro in una gara che è iniziata il momento in cui veo 3 è stato lanciato. Soluzioni robuste esistono e funzionano-ma non quelle che i produttori di modelli offrono come tutti, tutto.”

Google afferma che sta prendendo sul serio il problema.

“Siamo impegnati a sviluppare l’IA in modo responsabile e abbiamo chiare politiche per proteggere gli utenti dai danni e governare l’uso dei nostri strumenti di intelligenza artificiale. Qualsiasi contenuto generato con Google AI include una filigrana sintimale e aggiungiamo una filigrana visibile anche ai video VEO”, ha detto un portavoce dell’azienda Oltre La Linea.

“Non si preoccupano dei clienti”

Tuttavia, gli esperti affermano che lo strumento è stato rilasciato prima che tali caratteristiche fossero completamente implementate, una mossa che alcuni credono fosse sconsiderata.

Joshua McKenty, CEO della società di rilevamento di DeepFake PolyGuard, ha affermato che Google ha portato al mercato il prodotto perché era stato in ritardo rispetto ai concorrenti come Openai e Microsoft, che hanno rilasciato strumenti più user-friendly e pubblicizzati. Google non ha risposto a queste affermazioni.

“Google sta cercando di vincere una discussione secondo cui la loro AI è importante quando hanno perso drasticamente”, ha detto McKenty. “Sono come il terzo cavallo in una gara a due cavalli. Non si preoccupano dei clienti. Si preoccupano della loro tecnologia brillante.”

Quel sentimento fu ripreso da Sukrit Venkatagiri, assistente professore di informatica allo Swarthmore College.

“Le aziende sono in uno strano vincolo. Se non sviluppi l’IA generativa, sei visto come se fuoriesce e il tuo titolo ha un colpo”, ha detto. “Ma hanno anche la responsabilità di rendere questi prodotti sicuri quando vengono distribuiti nel mondo reale. Non credo che a nessuno si preoccupi in questo momento. Tutte queste aziende stanno dando profitto – o la promessa di profitto – per la sicurezza.”

La ricerca di Google, pubblicata lo scorso anno, ha riconosciuto la posa di AI generativa per minacce.

“L’esplosione di metodi generativi basati sull’intelligenza artificiale ha infiammato queste preoccupazioni [about misinformation]poiché possono sintetizzare contenuti audio e visivi altamente realistici, nonché un testo naturale e fluente su una scala precedentemente impossibile senza un’enorme quantità di lavoro manuale ”, ha letto lo studio.

Demis Hassabis, CEO di Google DeepMind, ha da tempo avvertito i suoi colleghi nel settore dell’IA contro la priorità della velocità sulla sicurezza. “Sostengo non muovermi velocemente e rompere le cose”, ha detto a Time nel 2023.

Ha rifiutato la richiesta di Oltre La Linea di intervista.

Eppure, nonostante tali avvertimenti, Google ha rilasciato Veo 3 prima di implementare pienamente le garanzie, portando a incidenti come quello che la Guardia Nazionale ha dovuto debunk a Los Angeles dopo che un account Tiktok ha fatto un falso video “Day In the Life” di un soldato che diceva che si stava preparando per “Gassing di oggi”, facendo riferimento a rilasciando gas lacrimogeni.

Imitando eventi reali

Le implicazioni di Veo 3 si estendono ben oltre i filmati di protesta. Nei giorni successivi alla sua uscita, diversi video fabbricati che imitano le trasmissioni di notizie reali sono circolate sui social media, tra cui uno di un falso rapporto su un irruzione domestica che includeva la grafica della CNN.

Un’altra clip affermava falsamente che lo yacht di JK Rowling affondò al largo della costa di Turkiye dopo un attacco di Orca, attribuendo il rapporto a Alejandra Caraballo della Cyberlaw Clinic di Harvard Law, che creava il video per testare lo strumento.

In un post, Caraballo ha avvertito che tale tecnologia potrebbe indurre in errore in particolare i consumatori di notizie più anziane.

“Ciò che è preoccupante è quanto sia facile da ripetere. Entro dieci minuti ho avuto più versioni. Ciò rende più difficile rilevare e più facile da diffondere”, ha scritto. “La mancanza di un chyron [banner on a news broadcast] rende banale aggiungerne uno dopo il fatto per far sembrare un particolare canale di notizie. “

Nel nostro esperimento, abbiamo usato un prompt per creare video di notizie false con i loghi di ABC e NBC, con voci che imitano quelle delle ancore della CNN Jake Tapper, Erin Burnett, John Berman e Anderson Cooper.

“Ora, sta solo diventando sempre più difficile da dire dalla finzione”, ha detto Caraballo ad Oltre La Linea. “Come qualcuno che ha studiato sistemi di intelligenza artificiale per anni, anche io sto iniziando a lottare.”

Questa sfida si estende anche al pubblico. Uno studio della Penn State University ha rilevato che il 48 % dei consumatori è stato ingannato da video falsi diffusi tramite app di messaggistica o social media.

Contrariamente alla credenza popolare, gli adulti più giovani sono più suscettibili alla disinformazione rispetto agli adulti più anziani, soprattutto perché le generazioni più giovani fanno affidamento sui social media per le notizie, che mancano degli standard editoriali e della supervisione legale delle organizzazioni di notizie tradizionali.

Un sondaggio dell’UNESCO da dicembre ha mostrato che il 62 percento degli influencer di notizie non è in grado di verificare le informazioni prima di condividerle.

Google non è solo nello sviluppo di strumenti che facilitano la diffusione dei media sintetici. Le aziende come DeepBrain offrono agli utenti la possibilità di creare video di avatar generati dall’IA, sebbene con limitazioni, in quanto non possono produrre rendering a fene come Veo 3. Deepbrain non ha risposto alla richiesta di commento di Oltre La Linea. Altri strumenti come Syntesia e Dubverse consentono il doppiaggio video, principalmente per la traduzione.

Questo toolkit in crescita offre maggiori opportunità per attori dannosi. Un recente incidente ha coinvolto un segmento di notizie fabbricato in cui è stato fatto sembrare un giornalista della CBS a Dallas per dire osservazioni razziste. Il software utilizzato rimane non identificato.

CBS News Texas non ha risposto a una richiesta di commento.

Man mano che i media sintetici diventano più diffusi, pone rischi unici che consentiranno ai cattivi attori di spingere contenuti manipolati che si diffonde più velocemente di quanto non possa essere corretto, secondo Colman.

“Quando i contenuti falsi si diffondono su piattaforme che non controllano questi marcatori [which is most of them]attraverso i canali che li spogliano o tramite cattivi attori che hanno imparato a falsificarli, il danno è fatto ”, ha detto Colman.

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.