Taipei, Taiwan – “Il sogno americano. Dicono che sia per tutti, ma è davvero così?”
Così inizia un video animato di 65 secondi, generato dall'intelligenza artificiale, che tocca questioni scottanti negli Stati Uniti, dalla tossicodipendenza e dai tassi di reclusione alla crescente disuguaglianza di ricchezza.
Mentre le nuvole temporalesche si addensano su un paesaggio urbano che ricorda New York City, le parole “AMERICAN DREAM” sono sospese in un cielo che si oscura al termine del video.
Il messaggio è chiaro: nonostante le promesse di una vita migliore per tutti, gli Stati Uniti sono in declino terminale.
Il video, intitolato American Dream o American Mirage, è uno dei numerosi segmenti trasmessi dall’emittente statale cinese CGTN – e condivisi in lungo e in largo sui social media – come parte della serie animata A Fractured America.
Altri video della serie contengono titoli simili che evocano immagini di una società distopica, come i lavoratori americani in tumulto: un risultato di politica ed economia sbilanciate e Smascherare la vera minaccia: il complesso militare-industriale americano.
Oltre al loro stridente messaggio anti-americano, i video condividono tutti la stessa estetica iperstilizzata generata dall’intelligenza artificiale e l’inquietante audio generato dal computer.
La CGTN e l'ambasciata cinese a Washington, DC non hanno risposto alle richieste di commento.
Lavoratori americani in tumulto: il risultato di uno squilibrio politico ed economico #PrimaVoce pic.twitter.com/JMYTyN8P2O
— CGTN (@CGTNOfficial) 17 marzo 2024
La serie Fractured America è solo un esempio di come l’intelligenza artificiale (AI), con la sua capacità di generare contenuti multimediali di alta qualità con il minimo sforzo in pochi secondi, stia iniziando a modellare gli sforzi propagandistici di Pechino per minare la posizione degli Stati Uniti nel mondo.
Henry Ajder, un esperto di intelligenza artificiale generativa con sede nel Regno Unito, ha affermato che sebbene la serie CGTN non tenti di spacciarsi per video autentici, è un chiaro esempio di come l'intelligenza artificiale abbia reso molto più semplice ed economico sfornare contenuti.
“Il motivo per cui l'hanno fatto in questo modo è che potresti assumere un animatore e un artista della voce fuori campo per farlo, ma probabilmente finirebbe per richiedere più tempo. Probabilmente finirebbe per essere più costoso da realizzare”, ha detto Ajder ad Oltre La Linea.
“Questo è un modo più economico per scalare la creazione di contenuti. Quando riesci a mettere insieme tutti questi vari moduli, puoi generare immagini, puoi animare quelle immagini, puoi generare solo video da zero. Puoi generare sintesi vocali piuttosto avvincenti e dal suono piuttosto umano. Quindi, hai un’intera pipeline di creazione di contenuti, automatizzata o almeno generata in modo altamente sintetico”.
La Cina sfrutta da tempo l’enorme portata e la natura senza confini di Internet per condurre campagne di influenza all’estero.
L'enorme esercito cinese di troll su Internet, noto come “wumao”, è diventato noto più di dieci anni fa per aver inondato i siti web di argomenti di discussione del Partito Comunista Cinese.
Dall’avvento dei social media, gli sforzi di propaganda di Pechino si sono rivolti a piattaforme come X e Facebook e agli influencer online.
Mentre le proteste Black Lives Matter hanno invaso gli Stati Uniti nel 2020 in seguito all’uccisione di George Floyd, gli account dei social media statali cinesi hanno espresso il loro sostegno, anche se Pechino ha limitato le critiche alla sua storia di discriminazione contro le minoranze etniche come i musulmani uiguri in patria.
“Non riesco a respirare.” pic.twitter.com/UXHgXMT0lk
— Hua Chunying 华春莹 (@SpokespersonCHN) 30 maggio 2020
In un rapporto dello scorso anno, il Threat Analysis Center di Microsoft ha affermato che l’intelligenza artificiale ha reso più semplice la produzione di contenuti virali e, in alcuni casi, più difficile identificare quando il materiale è stato prodotto da un attore statale.
Gli attori cinesi sostenuti dallo stato hanno distribuito contenuti generati dall’intelligenza artificiale almeno dal marzo 2023, ha affermato Microsoft, e tali “contenuti visivi di qualità relativamente elevata hanno già attirato livelli più elevati di coinvolgimento da parte degli utenti autentici dei social media”.
“Nell’ultimo anno, la Cina ha affinato una nuova capacità di generare automaticamente immagini da utilizzare per operazioni di influenza intese a imitare gli elettori statunitensi in tutto lo spettro politico e creare controversie lungo linee razziali, economiche e ideologiche”, afferma il rapporto.
“Questa nuova capacità è alimentata dall’intelligenza artificiale che tenta di creare contenuti di alta qualità che potrebbero diventare virali sui social network negli Stati Uniti e in altre democrazie”.
Microsoft ha inoltre identificato più di 230 dipendenti dei media statali che si spacciano per influencer dei social media, con la capacità di raggiungere 103 milioni di persone in almeno 40 lingue.
I loro punti di discussione seguivano un copione simile a quello della serie di video della CGTN: la Cina è in ascesa e vince la competizione per la supremazia economica e tecnologica, mentre gli Stati Uniti si avviano verso il collasso e perdono amici e alleati.
Poiché modelli di intelligenza artificiale come Sora di OpenAI producono video, immagini e audio sempre più iperrealistici, i contenuti generati dall'intelligenza artificiale sono destinati a diventare più difficili da identificare e a stimolare la proliferazione di deepfake.
L’astroturfing, la pratica di creare l’apparenza di un ampio consenso sociale su questioni specifiche, potrebbe rappresentare un “miglioramento rivoluzionario”, secondo un rapporto pubblicato lo scorso anno da RAND, un think tank finanziato in parte dal governo degli Stati Uniti.
La serie di video CGTN, pur utilizzando a volte una grammatica scomoda, fa eco a molte delle lamentele condivise dai cittadini statunitensi su piattaforme come X, Facebook, TikTok, Instagram e Reddit – siti Web che vengono raschiati da modelli di intelligenza artificiale per i dati di addestramento.
Microsoft ha affermato nel suo rapporto che, sebbene l’emergere dell’intelligenza artificiale non renda più o meno probabile la prospettiva di un’interferenza di Pechino nelle elezioni presidenziali americane del 2024, “molto probabilmente renderà più efficace qualsiasi potenziale interferenza elettorale se Pechino decidesse di essere coinvolta”. .
Gli Stati Uniti non sono l’unico paese preoccupato per la prospettiva di contenuti generati dall’intelligenza artificiale e di astroturfing mentre si avvia verso un tumultuoso anno elettorale.
Entro la fine del 2024, più di 60 paesi avranno tenuto elezioni che avranno un impatto su 2 miliardi di elettori in un anno record per la democrazia.
Tra questi c’è la democratica Taiwan, che il 13 gennaio ha eletto un nuovo presidente, William Lai Ching-te.
Taiwan, come gli Stati Uniti, è un obiettivo frequente delle operazioni di influenza di Pechino a causa del suo status politico controverso.
Beiijijng rivendica Taiwan e le sue isole periferiche come parte del suo territorio, sebbene funzioni come uno stato de facto indipendente.
Nel periodo precedente alle elezioni di gennaio, più di 100 video deepfake di conduttori di notizie false che attaccavano la presidente uscente di Taiwan Tsai Ing-wen sono stati attribuiti al Ministero della Sicurezza di Stato cinese, ha riferito il Taipei Times, citando fonti di sicurezza nazionale.
Proprio come la serie di video CGTN, i video mancavano di sofisticatezza, ma mostravano come l’intelligenza artificiale potrebbe aiutare a diffondere la disinformazione su larga scala, ha affermato Chihhao Yu, co-direttore del Taiwan Information Environment Research Center (IORG).
Yu ha affermato che la sua organizzazione ha monitorato la diffusione dei contenuti generati dall'intelligenza artificiale su LINE, Facebook, TikTok e YouTube durante le elezioni e ha scoperto che i contenuti audio generati dall'intelligenza artificiale erano particolarmente popolari.
“[The clips] sono spesso diffuse attraverso i social media e inquadrate come registrazioni trapelate/segrete di personaggi politici o candidati riguardanti scandali di affari personali o corruzione”, ha detto Yu ad Oltre La Linea.
L’audio deepfake è anche più difficile da distinguere per gli esseri umani da quello reale, rispetto alle immagini manipolate o generate dall’intelligenza artificiale, ha affermato Ajder, l’esperto di intelligenza artificiale.
In un recente caso nel Regno Unito, dove sono previste elezioni generali nella seconda metà del 2024, il leader dell’opposizione Keir Starmer è apparso in un clip audio deepfake che sembrava mostrarlo mentre abusava verbalmente dei membri dello staff.
Una rappresentazione così convincente sarebbe stata impossibile senza un “impeccabile impressionista”, ha detto Ajder.
“Gli attori allineati o affiliati allo Stato che hanno motivazioni – hanno cose che stanno cercando di ottenere potenzialmente – ora hanno un nuovo strumento per cercare di raggiungere questo obiettivo”, ha detto Ajder.
“E alcuni di questi strumenti li aiuteranno semplicemente ad ampliare le cose che stavano già facendo. Ma in alcuni contesti, potrebbe aiutarli a raggiungere questi obiettivi, utilizzando mezzi completamente nuovi, a cui è già difficile per i governi rispondere”.