La società di intelligenza artificiale OpenAI ha annunciato di aver interrotto campagne di influenza segrete provenienti da Russia, Cina, Israele e Iran.
Il creatore di ChatGPT ha dichiarato giovedì di aver identificato cinque campagne che comportano “tentativi ingannevoli di manipolare l’opinione pubblica o influenzare i risultati politici senza rivelare la vera identità o le intenzioni degli attori dietro di esse”.
Le campagne hanno utilizzato i modelli di OpenAI per generare testo e immagini che sono stati pubblicati su piattaforme di social media come Telegram, X e Instagram, in alcuni casi sfruttando gli strumenti per produrre contenuti con “meno errori linguistici di quanto sarebbe stato possibile per gli operatori umani”. OpenAI ha detto.
Open AI ha dichiarato di aver chiuso gli account associati a due operazioni russe, soprannominate Bad Grammer e Doppelganger; una campagna cinese conosciuta come Spamouflage; una rete iraniana chiamata International Union of Virtual Media; e un’operazione israeliana denominata Zero Zeno.
“Siamo impegnati a sviluppare un'intelligenza artificiale sicura e responsabile, il che implica progettare i nostri modelli pensando alla sicurezza e intervenendo in modo proattivo contro usi dannosi”, ha affermato la start-up californiana in una dichiarazione pubblicata sul suo sito web.
“Individuare e interrompere gli abusi multipiattaforma, come le operazioni di influenza segrete, può essere difficile perché non sempre sappiamo come vengono distribuiti i contenuti generati dai nostri prodotti. Ma ci impegniamo a individuare e mitigare questo abuso su larga scala sfruttando il potere dell’intelligenza artificiale generativa”.
Secondo OpenAI, Bad Grammar e Doppelganger hanno generato in gran parte contenuti sulla guerra in Ucraina, comprese narrazioni che ritraggono l'Ucraina, gli Stati Uniti, la NATO e l'Unione Europea in una luce negativa.
Spamouflage ha generato un testo in cinese, inglese, giapponese e coreano che criticava eminenti critici di Pechino, tra cui l'attore e attivista tibetano Richard Gere e il dissidente Cai Xia, e sottolineava gli abusi contro i nativi americani, secondo la startup.
L'Unione Internazionale dei Media Virtuali ha generato e tradotto articoli che criticavano gli Stati Uniti e Israele, mentre Zero Zeno ha preso di mira l'agenzia delle Nazioni Unite per i rifugiati palestinesi e gli “islamici radicali” in Canada, ha affermato OpenAI.
Nonostante gli sforzi per influenzare il discorso pubblico, le operazioni “non sembrano aver beneficiato di un aumento significativo del coinvolgimento del pubblico o della portata come risultato dei nostri servizi”, ha affermato l’azienda.
Il potenziale utilizzo dell’intelligenza artificiale per diffondere disinformazione è emerso come un importante punto di discussione mentre gli elettori di più di 50 paesi hanno votato in quello che è stato definito il più grande anno elettorale della storia.
La settimana scorsa, le autorità dello stato americano del New Hampshire hanno annunciato di aver incriminato un consulente politico del Partito Democratico con oltre due dozzine di accuse per presunta orchestrazione di chiamate robotizzate che utilizzavano un'imitazione creata dall'intelligenza artificiale del presidente degli Stati Uniti Joe Biden per esortare gli elettori a non votare primarie presidenziali dello stato.
Durante il periodo precedente alle elezioni parlamentari pakistane di febbraio, l'ex primo ministro Imran Khan, incarcerato, ha utilizzato discorsi generati dall'intelligenza artificiale per radunare i sostenitori in mezzo al divieto del governo di organizzare manifestazioni pubbliche.