La Russia è davvero "cura" Western AI?

Daniele Bianchi

La Russia è davvero “cura” Western AI?

A marzo, NewsGuard – una società che tiene traccia della disinformazione – ha pubblicato un rapporto che afferma che gli strumenti di intelligenza artificiale generativa (AI), come CHATGPT, stavano amplificando la disinformazione russa. NewsGuard ha testato i principali chatbot utilizzando prompt basati su storie della rete Pravda, un gruppo di siti Web pro-Kremlin che imitano i punti vendita legittimi, identificati per la prima volta dall’agenzia francese Viginum. I risultati sono stati allarmanti: i chatbot “ripetute false narrazioni fatte dalla rete Pravda il 33 percento delle volte”, afferma il rapporto.

La rete Pravda, che ha un pubblico piuttosto piccolo, ha ricercatori perplessi a lungo. Alcuni credono che il suo obiettivo sia stato performativo: segnalare l’influenza della Russia agli osservatori occidentali. Altri vedono un obiettivo più insidioso: Pravda esiste per non raggiungere le persone, ma per “scopi” i grandi modelli linguistici (LLM) dietro i chatbot, alimentando loro falsità che gli utenti incontrerebbero inconsapevolmente.

NewsGuard ha dichiarato nel suo rapporto che i suoi risultati confermano il secondo sospetto. Questa affermazione ha guadagnato trazione, spingendo i titoli drammatici nel Washington Post, Forbes, Francia 24, Der Spiegel e altrove.

Ma per noi e altri ricercatori, questa conclusione non regge. Innanzitutto, la metodologia di notizie utilizzata è opaca: non ha rilasciato i suoi suggerimenti e si è rifiutato di condividerli con i giornalisti, rendendo impossibile la replica indipendente.

In secondo luogo, il design dello studio probabilmente ha gonfiato i risultati e la cifra del 33 percento potrebbe essere fuorviante. Gli utenti chiedono ai chatbot di tutto, dai consigli di cottura ai cambiamenti climatici; NewsGuard li ha testati esclusivamente su istruzioni collegate alla rete Pravda. Due terzi dei suoi suggerimenti sono stati realizzati esplicitamente per provocare falsità o presentarle come fatti. Le risposte che sollecitano l’utente a essere caute sulle affermazioni perché non sono verificate sono state conteggiate come disinformazione. Lo studio ha deciso di trovare disinformazione – e lo ha fatto.

Questo episodio riflette una più ampia dinamica problematica modellata da tecnologia in rapido movimento, clamore dei media, cattivi attori e ricerche in ritardo. Con la disinformazione e la disinformazione classificate come il rischio globale più alto tra gli esperti del World Economic Forum, la preoccupazione per la loro diffusione è giustificata. Ma le reazioni istintive rischiano di distorcere il problema, offrendo una visione semplicistica dell’IA complessa.

È allettante credere che la Russia stia intenzionalmente “avvelenando” l’IA occidentale come parte di una trama astuta. Ma le cornici allarmanti oscurano spiegazioni più plausibili e generano danni.

Quindi, i chatbot possono riprodurre punti di discussione del Cremlino o citare dubbie fonti russe? SÌ. Ma la frequenza con cui ciò accade, sia che rifletta la manipolazione del Cremlino e quali condizioni rendono gli utenti di incontrare sono tutt’altro che risolti. Molto dipende dalla “scatola nera” – cioè l’algoritmo sottostante – con il quale i chatbot recuperano informazioni.

Abbiamo condotto il nostro audit, testando sistematicamente CHATGPT, Copilot, Gemini e Grok utilizzando istruzioni relative alla disinformazione. Oltre a re-test dei pochi esempi forniti da notizie fornite nel suo rapporto, abbiamo progettato nuovi suggerimenti. Alcuni erano generali – ad esempio, affermazioni sui biolabs statunitensi in Ucraina; Altri erano iper-specifici, ad esempio, accuse sulle strutture della NATO in alcune città ucraine.

Se la rete Pravda stesse “curando” l’intelligenza artificiale, vedremmo riferimenti ad essa attraverso le risposte che i chatbot generano, essi generali o specifici.

Non l’abbiamo visto nelle nostre scoperte. Contrariamente al 33 percento di NewsGuard, i nostri suggerimenti hanno generato false affermazioni solo il 5 percento delle volte. Solo l’8 percento dei risultati ha fatto riferimento ai siti Web di Pravda – e la maggior parte di questi ha fatto per sfogliare il contenuto. Fondamentalmente, i riferimenti di Pravda erano concentrati in query scarsamente coperte dagli sbocchi tradizionali. Questo supporta l’ipotesi del vuoto dei dati: quando i chatbot mancano di materiale credibile, a volte tirano da siti dubbie – non perché sono stati curati, ma perché c’è poco altro disponibile.

Se i noci di dati, non l’infiltrazione del Cremlino, sono il problema, significa che l’esposizione alla disinformazione risulta dalla scarsità di informazioni, non una potente macchina di propaganda. Inoltre, affinché gli utenti possano effettivamente incontrare disinformazione nelle risposte di Chatbot, diverse condizioni devono allinearsi: devono chiedere argomenti oscuri in termini specifici; Questi argomenti devono essere ignorati da punti vendita credibili; E il chatbot deve non avere i guardrail per depretare le fonti dubbie.

Anche allora, tali casi sono rari e spesso di breve durata. I dati annullano rapidamente mentre i report si recano e anche quando persistono, i chatbot spesso sfogliavano le affermazioni. Sebbene tecnicamente possibili, tali situazioni sono molto rare al di fuori delle condizioni artificiali progettate per ingannare i chatbot nella ripetizione della disinformazione.

Il pericolo di manipolazione dell’AI del Cremlino è reale. Alcuni esperti di contro-disinformazione suggeriscono che le campagne del Cremlino potrebbero essere stesse progettate per amplificare le paure occidentali, travolgenti controlli di fatti e unità di contro-disinformazione. Margarita Simonyan, un importante propagandista russo, cita regolarmente la ricerca occidentale per pubblicizzare la presunta influenza della rete televisiva finanziata dal governo, RT, guida.

Avvertenze indiscriminate sulla disinformazione possono ritorcersi contro, provocare il sostegno alle politiche repressive, erodere la fiducia nella democrazia e incoraggiare le persone ad assumere che contenuti credibili siano falsi. Nel frattempo, le minacce più visibili rischiano di eclissare gli usi più silenziosi – ma potenzialmente più pericolosi – dell’IA da parte di attori maligni, come per la generazione di malware riportato da Google e Openai.

Separare le preoccupazioni reali dalle paure gonfiate è cruciale. La disinformazione è una sfida, ma lo è anche il panico che provoca.

Le opinioni espresse in questo articolo sono proprie e non riflettono necessariamente la posizione editoriale di Oltre La Linea.

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.