“Una mancanza di fiducia”: come i deepfake e l’intelligenza artificiale potrebbero scuotere le elezioni americane

Daniele Bianchi

“Una mancanza di fiducia”: come i deepfake e l’intelligenza artificiale potrebbero scuotere le elezioni americane

Il 21 gennaio Patricia Gingrich stava per sedersi a cena quando squillò il suo telefono fisso. L’elettore del New Hampshire si è alzato e ha sentito una voce che le diceva di non votare alle imminenti primarie presidenziali.

“Mentre lo ascoltavo, ho pensato, cavolo, sembra Joe Biden”, ha detto Gingrich ad Oltre La Linea. “Ma il fatto che stesse dicendo di salvare il tuo voto, di non usarlo nelle prossime elezioni – sapevo che Joe Biden non l’avrebbe mai detto.”

La voce potrebbe sembrare quella del presidente degli Stati Uniti, ma non era lui: era un deepfake, generato dall’intelligenza artificiale (AI).

Gli esperti avvertono che i deepfake – audio, video o immagini creati utilizzando strumenti di intelligenza artificiale, con l’intento di fuorviare – rappresentano un rischio elevato per gli elettori statunitensi in vista delle elezioni generali di novembre, non solo inserendo contenuti falsi nella corsa, ma erodendo la fiducia del pubblico.

Gingrich ha detto di non essersi innamorata del deepfake di Biden, ma teme che possa aver represso l’affluenza alle urne. Il messaggio ha raggiunto quasi 5.000 elettori del New Hampshire pochi giorni prima delle primarie statali.

“Questo potrebbe essere un male per le persone che non sono così informate su quello che sta succedendo ai democratici”, ha detto Gingrich, che è il presidente del Barrington Democratic Committee a Burlington, nel New Hampshire.

“Se davvero pensassero che non dovrebbero votare per qualcosa e Joe Biden dicesse loro di non farlo, allora forse non parteciperebbero a quel voto”.

Gruppi online vulnerabili

La chiamata di Biden non è stata l’unico deepfake finora in questo ciclo elettorale. Prima di annullare la sua candidatura presidenziale, la campagna del governatore della Florida Ron DeSantis ha condiviso un video che conteneva immagini generate dall’intelligenza artificiale di Donald Trump che abbraccia l’immunologo Anthony Fauci, due figure che si sono scontrate pubblicamente durante la pandemia di COVID-19.

E a settembre, un altro robocall è stato inviato ai 300 elettori che avrebbero dovuto partecipare alle primarie repubblicane della Carolina del Sud. Questa volta, i destinatari hanno sentito una voce generata dall’intelligenza artificiale che imitava il senatore Lindsey Graham, chiedendo per chi stavano votando.

La pratica di alterare o falsificare i contenuti, soprattutto per scopi politici, esiste fin dagli albori della politica statunitense. Anche il primo presidente del paese, George Washington, dovette fare i conti con una serie di “lettere spurie” che sembravano mostrarlo mettere in discussione la causa dell’indipendenza degli Stati Uniti.

Ma gli strumenti di intelligenza artificiale sono ora abbastanza avanzati da imitare in modo convincente le persone in modo rapido ed economico, aumentando il rischio di disinformazione.

Uno studio pubblicato all’inizio di quest’anno dai ricercatori della George Washington University prevedeva che, entro la metà del 2024, gli “attacchi IA” quotidiani si sarebbero intensificati, rappresentando una minaccia per le elezioni generali di novembre.

L’autore principale dello studio Neil Johnson ha detto ad Oltre La Linea che il rischio più elevato non deriva dalle recenti chiamate robotizzate, ovviamente false, che contenevano messaggi che facevano alzare le sopracciglia, ma piuttosto da deepfake più convincenti.

“Saranno immagini sfumate, immagini modificate, informazioni non del tutto false perché le informazioni false attirano l’attenzione di chi controlla la disinformazione”, ha detto Johnson.

Lo studio ha scoperto che le comunità online sono collegate in modo tale da consentire ai malintenzionati di inviare grandi quantità di media manipolati direttamente al mainstream.

Le comunità negli stati indecisi potrebbero essere particolarmente vulnerabili, così come i gruppi di genitori su piattaforme come Facebook.

“Il ruolo delle comunità di genitori sarà importante”, ha affermato Johnson, indicando come esempio la rapida diffusione della disinformazione sui vaccini durante la pandemia.

“Penso che all’improvviso ci troveremo di fronte a un’ondata di [disinformation] – molte cose che non sono false, non sono false, ma distorcono la verità.

Donald Trump si trova accanto al podio della Casa Bianca dove parla Anthony Fauci.

Erodendo la fiducia del pubblico

Gli stessi elettori, tuttavia, non sono gli unici bersagli dei deepfake. Larry Norden, direttore senior del programma elettorale e governativo presso il Brennan Center for Justice, ha collaborato con i funzionari elettorali per aiutarli a individuare i contenuti falsi.

Ad esempio, Norden ha affermato che i malintenzionati potrebbero utilizzare strumenti di intelligenza artificiale per ordinare agli operatori elettorali di chiudere prematuramente un seggio elettorale, manipolando il suono della voce del loro capo o inviando un messaggio apparentemente attraverso l’account di un supervisore.

Sta insegnando agli addetti ai sondaggi a proteggersi verificando i messaggi che ricevono.

Norden ha sottolineato che i malintenzionati possono creare contenuti fuorvianti senza l’intelligenza artificiale. “L’aspetto positivo dell’intelligenza artificiale è che rende semplicemente più semplice agire su larga scala”, ha affermato.

Proprio l’anno scorso, Norden ha illustrato le capacità dell’intelligenza artificiale creando un video deepfake di se stesso per una presentazione sui rischi posti dalla tecnologia.

“Non ci è voluto molto tempo”, ha detto Norden, spiegando che tutto quello che doveva fare era inserire le sue precedenti interviste televisive in un’app.

Il suo avatar non era perfetto – il suo volto era un po’ sfocato, la sua voce un po’ instabile – ma Norden ha notato che gli strumenti di intelligenza artificiale stanno rapidamente migliorando. “Da quando l’abbiamo registrato, la tecnologia è diventata più sofisticata e penso che sia sempre più difficile dirlo.”

La tecnologia da sola non è il problema. Man mano che i deepfake diventano più comuni, il pubblico ne diventerà più consapevole e più scettico nei confronti dei contenuti che consumano.

Ciò potrebbe erodere la fiducia del pubblico, con gli elettori più propensi a rifiutare informazioni vere. Anche i personaggi politici potrebbero abusare di questo scetticismo per i propri fini.

Gli studiosi di diritto hanno definito questo fenomeno il “dividendo del bugiardo”: la preoccupazione per i deepfake potrebbe rendere più facile per i soggetti di filmati audio o video legittimi affermare che le registrazioni sono false.

Norden ha indicato come esempio l’audio di Access Hollywood emerso prima delle elezioni del 2016. Nella clip si sente l’allora candidato Trump parlare delle sue interazioni con le donne: “Puoi fare qualsiasi cosa. Prendili per la fica.

Il nastro – che era molto reale – era considerato dannoso per le prospettive di Trump tra le elettori donne. Ma se un audio simile trapelasse oggi, Norden ha detto che un candidato potrebbe facilmente definirlo falso. “Sarebbe più facile per il pubblico ignorare questo genere di cose rispetto a qualche anno fa”.

Norden ha aggiunto: “Uno dei problemi che abbiamo in questo momento negli Stati Uniti è la mancanza di fiducia, e questo potrebbe solo peggiorare le cose”.

Steve Kramer si trova in un'aula di tribunale, circondato da un avvocato e da un agente delle forze dell'ordine.

Cosa si può fare contro i deepfake?

Sebbene i deepfake siano una preoccupazione crescente nelle elezioni statunitensi, sono relativamente poche le leggi federali che ne limitano l’uso. La Commissione elettorale federale (FEC) deve ancora limitare i deepfake nelle elezioni e i progetti di legge al Congresso rimangono in fase di stallo.

I singoli Stati stanno lottando per riempire il vuoto. Secondo un tracker legislativo pubblicato dall’organizzazione per la difesa dei consumatori Public Citizen, finora sono state emanate 20 leggi statali per regolamentare i deepfake nelle elezioni.

Molti altri progetti di legge – nelle Hawaii, in Louisiana e nel New Hampshire – sono stati approvati e sono in attesa della firma del governatore.

Norden ha detto di non essere sorpreso nel vedere i singoli stati agire davanti al Congresso. “Gli Stati dovrebbero essere i laboratori della democrazia, quindi si dimostra ancora una volta vero: gli Stati agiscono per primi. Sappiamo tutti che è davvero difficile far approvare qualcosa al Congresso”, ha detto.

Anche gli elettori e le organizzazioni politiche si stanno attivando. Dopo che Gingrich ha ricevuto la falsa chiamata di Biden nel New Hampshire, ha aderito a una causa – guidata dalla League of Women Voters – cercando la responsabilità per il presunto inganno.

La fonte della chiamata si è rivelata essere Steve Kramer, un consulente politico che affermava che la sua intenzione era quella di attirare l’attenzione sulla necessità di regolamentare l’intelligenza artificiale in politica. Kramer ha anche ammesso di essere dietro la chiamata robotica nella Carolina del Sud, imitando il senatore Graham.

Kramer si è fatto avanti dopo che NBC News ha rivelato di aver incaricato un mago di utilizzare un software disponibile al pubblico per generare il deepfake della voce di Biden.

Secondo la causa, la creazione del deepfake ha richiesto meno di 20 minuti e costava solo 1 dollaro.

Kramer, tuttavia, ha detto a CBS News di aver ricevuto “5 milioni di dollari di esposizione” per i suoi sforzi, che sperava avrebbero consentito ai regolamenti sull’intelligenza artificiale di “funzionarsi o almeno iniziare a ripagare se stessi”.

“La mia intenzione era fare la differenza”, ha detto.

Paul Carpenter, un mago, sembra far galleggiare una carta da gioco tra le sue due mani tese.

Possibilità di applicare le leggi esistenti

Ma il caso di Kramer dimostra che le leggi esistenti possono essere utilizzate per limitare i deepfake.

La Federal Communications Commission (FCC), ad esempio, all’inizio di quest’anno ha stabilito (PDF) che il software di imitazione vocale rientra nel Telephone Consumer Protection Act del 1991 ed è quindi illegale nella maggior parte dei casi.

Alla fine la commissione ha proposto una sanzione di 6 milioni di dollari contro Kramer per la chiamata robotica illegale.

Il Dipartimento di Giustizia del New Hampshire ha anche accusato Kramer di reato di soppressione degli elettori e di impersonificazione di un candidato, che potrebbe comportare fino a sette anni di prigione. Kramer si è dichiarato non colpevole. Non ha risposto alla richiesta di commento di Oltre La Linea.

Norden ha affermato che è significativo che nessuna delle leggi di cui Kramer è accusato di infrangere sia specificamente adattata ai deepfake. “Le accuse penali contro di lui non hanno nulla a che fare con l’intelligenza artificiale”, ha detto. “Tali leggi esistono indipendentemente dalla tecnologia utilizzata”.

Tuttavia, tali leggi non sono così facili da applicare ai malintenzionati che non sono identificabili o che si trovano al di fuori degli Stati Uniti.

“Sappiamo dalle agenzie di intelligence che stanno già vedendo Cina e Russia sperimentare questi strumenti. E si aspettano che vengano utilizzati”, ha detto Norden. “In questo senso, non si intende legiferare per uscire da questo problema.”

Sia Norden che Johnson ritengono che la mancanza di regolamentazione renda più importante per gli elettori informarsi sui deepfake e imparare come trovare informazioni accurate.

Per quanto riguarda Gingrich, ha detto di sapere che i deepfake manipolativi diventeranno sempre più onnipresenti. Anche lei ritiene che gli elettori debbano informarsi sul rischio.

Il suo messaggio agli elettori? “Direi alle persone di assicurarsi di sapere che possono votare”.

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.