Diversi ricchi uomini d’affari italiani hanno ricevuto una telefonata sorprendente all’inizio di quest’anno. L’oratore, che sembrava proprio come il ministro della Difesa Guido Crosetto, aveva una richiesta speciale: per favore invia denaro per aiutarci a giornali giornalisti italiani rapiti in Medio Oriente.
Ma non era Crosetto alla fine della linea. Ha appreso della chiamata solo quando molti degli uomini d’affari mirati lo hanno contattato. Alla fine è emerso che i truffatori avevano usato l’intelligenza artificiale (AI) per falsificare la voce di Crosetto.
Storie consigliate
Elenco di 4 elementifine dell’elenco
I progressi nella tecnologia AI significano che ora è possibile generare voicee o soundbites ultraarealistici. In effetti, una nuova ricerca ha scoperto che le voci generate dall’IA sono ora indistinguibili dalle vere voci umane. In questo spiegatore, disimbelliamo quali potrebbero essere le implicazioni di questo.
Cosa è successo nel caso Crosetto?
Diversi imprenditori e uomini d’affari italiani hanno ricevuto chiamate all’inizio di febbraio, un mese dopo che il primo ministro Giorgia Meloni aveva ottenuto il rilascio della giornalista italiana Cecilia Sala, che era stata imprigionata in Iran.
Nelle chiamate, la voce “Deepfake” di Crosetto ha chiesto agli uomini d’affari di collegare circa 1 milione di euro ($ 1,17 milioni) a un conto bancario all’estero, i cui dettagli sono stati forniti durante la chiamata o in altre chiamate che pretendono di essere da membri del personale di Crosetto.
Il 6 febbraio, Crosetto ha pubblicato su X, dicendo che aveva ricevuto una chiamata il 4 febbraio da “A Friend, un imprenditore di spicco”. Quell’amico chiese a Crosetto se il suo ufficio avesse chiamato per chiedere il suo numero di cellulare. Crosetto ha detto che non lo era. “Gli dico che era assurdo, dato che lo avevo già e che era impossibile”, ha scritto nel suo post X.
Crosetto ha aggiunto che è stato successivamente contattato da un altro uomo d’affari che aveva effettuato un grande bonifico bancario a seguito di una chiamata da un “generale” che ha fornito informazioni sul conto bancario.
“Mi chiama e mi dice che è stato contattato da me e poi da un generale, e che aveva fatto un grande bonifico bancario su un conto fornito dal” generale “. Gli dico che è una truffa e informi i Carabinieri [Italian police]che vanno a casa sua e prendono la sua lamentela. “
Chiamate simili da parte di falsi funzionari del Ministero della Difesa sono state fatte anche ad altri imprenditori, chiedendo informazioni e denaro personali.
Mentre ha segnalato tutto questo alla polizia, Crosetto ha aggiunto: “Preferisco rendere pubblici i fatti in modo che nessuno corra il rischio di cadere nella trappola”.
Alcune delle figure d’affari più importanti dell’Italia, tra cui il defunto stilista Giorgio Armani e il cofondatore di Prada Patrizio Bertelli, sono stati presi di mira nella truffa. Ma, secondo le autorità, solo Massimo Moratti, ex proprietario dell’Inter Football Club, ha effettivamente inviato i soldi richiesti. La polizia è stata in grado di tracciare e congelare i soldi dal bonifico Wire che ha fatto.
Da allora Moratti ha presentato una denuncia legale all’ufficio del procuratore della città. Ha detto ai media italiani: “Ho presentato la denuncia, ovviamente, ma preferirei non parlarne e vedere come va le indagini. Sembrava tutto reale. Erano bravi. Potrebbe succedere a chiunque. “
Come funziona la generazione di voce di AI?
I generatori vocali di AI in genere usano algoritmi di “apprendimento profondo”, attraverso i quali il programma AI studia grandi set di dati di vere voci umane e tono “impara”, enunciazione, intonazione e altri elementi di una voce.
Il programma AI è addestrato utilizzando diverse clip audio della stessa persona ed è “insegnato” a imitare la voce, l’accento e lo stile di parlare di quella persona specifica. La voce o l’audio generata è anche chiamata clone vocale generato dall’IA.
Utilizzando i programmi di elaborazione del linguaggio naturale (NLP), che gli istruiscono di comprendere, interpretare e generare linguaggio umano, l’IA può persino imparare a comprendere le caratteristiche tonali di una voce, come il sarcasmo o la curiosità.
Questi programmi possono convertire il testo in componenti fonetici e quindi generare una clip vocale sintetica che suona come un vero essere umano.
“In generale, possiamo addestrare un modello di intelligenza artificiale con migliaia e migliaia di ore di registrazioni di voce umana, quindi il modello può imparare come suonano le voci umane in generale”, ha detto a Oltre La Linea NADINE Lavan, docente senior in psicologia della Queen Mary University di Londra.
“Questo è quindi per il modello da cui puoi creare voci generate dall’intelligenza artificiale, o semplicemente chiedendo al modello di andare e generare una voce che non ha una vera controparte umana o dando al modello un esempio di voce e dicendolo per clonare quella voce, per creare una versione Ai-Generata.
Il termine “DeepFake” è stato coniato nel 2014 da Ian Goodfellow, direttore dell’apprendimento automatico di Apple Special Projects Group. Combina “apprendimento profondo” e “falso” e si riferisce a immagini, video o audio altamente realistici, tutte generate attraverso il profondo apprendimento.
Quanto sono bravi a impersonare qualcuno?
La ricerca condotta da un team presso la Queen Mary University di Londra e pubblicata dalla Science Journal PLOS One il 24 settembre ha concluso che le voci generate dall’IA sembrano vere voci umane per le persone che le ascoltano.
Al fine di condurre la ricerca, il team ha generato 40 campioni di voci di intelligenza artificiale – entrambi utilizzando voci di persone reali sia creando voci completamente nuove – usando uno strumento chiamato ElevenLabs. I ricercatori hanno anche raccolto 40 campioni di registrazione delle voci reali delle persone. Tutte le 80 di queste clip sono state modificate e pulite per la qualità.
Il team di ricerca ha utilizzato voci maschili e femminili con accenti britannici, americani, australiani e indiani nei campioni. Elevenlabs offre anche un accento “africano”, ma i ricercatori hanno scoperto che l’etichetta di accento era “troppo generale per i nostri scopi”.
Il team ha reclutato 50 partecipanti di età compresa tra 18 e 65 anni nel Regno Unito per i test. È stato chiesto loro di ascoltare le registrazioni per cercare di distinguere tra le voci dell’IA e le vere voci umane. Gli è stato anche chiesto quali voci sembravano più affidabili.
Lo studio ha scoperto che mentre le “nuove” voci generate interamente dall’IA erano meno convincenti per i partecipanti, i profondi o i cloni vocali erano valutati su altrettanto realistici come le vere voci umane.
Il quarantuno per cento delle voci generate dall’IA e il 58 percento dei cloni vocali sono stati scambiati per le voci umane reali.
Inoltre, i partecipanti avevano maggiori probabilità di valutare le voci accentate britanniche come reali o umane rispetto a quelle con accenti americani, suggerendo che le voci di intelligenza artificiale sono estremamente sofisticate.
Più preoccupanti, i partecipanti tendevano a valutare le voci generate dall’IA come più affidabili delle vere voci umane. Ciò contrasta con le ricerche precedenti, che di solito hanno trovato voci di intelligenza artificiale meno affidabili, segnalando, ancora una volta, che l’IA è diventata particolarmente sofisticata nel generare voci false.
“Una probabile spiegazione del perché la generazione vocale di AI all’avanguardia è diventata molto più sofisticata potrebbe essere che i modelli sono ora addestrati su vasti set di dati di addestramento di alta qualità”, ha affermato Lavan.
“Ciò significa solo che i modelli ottengono molte più informazioni su come funzionano le voci, in modo tale da poter costruire un’immagine più dettagliata”, ha detto Lavan. Ha spiegato che l’intelligenza artificiale può creare voci più realistiche imitando diversi accenti, intonazione, schemi di linguaggio, persino respiratori di suoni e errori di linguaggio.
Dovremmo essere tutti molto preoccupati per questo?
Mentre l’audio generato dall’IA che sembra molto “umano” può essere utile per industrie come la pubblicità e l’editing cinematografico, può essere utilizzato in modo improprio nelle truffe e per generare notizie false.
Le truffe simili a quelle che hanno preso di mira gli uomini d’affari italiani sono già in aumento. Negli Stati Uniti, ci sono state segnalazioni di persone che hanno ricevuto chiamate con voci di Deepfake dei loro parenti che dicono di essere nei guai e di richiedere denaro.
Tra gennaio e giugno di quest’anno, le persone di tutto il mondo hanno perso più di $ 547,2 milioni per le truffe di DeepFake, secondo i dati della società AI con sede in California assomigliano all’IA. Mostrando una tendenza al rialzo, la cifra è passata da circa $ 200 milioni nel primo trimestre a $ 347 milioni nel secondo.
“Se ci vogliono solo pochi minuti [or even a few seconds] di registrazione di una voce per clonarla in modo ragionevolmente convincente, un’ovvia preoccupazione per le voci generate altamente realistiche è il furto di identità “, ha detto Lavan.
Tuttavia, Lavan ha aggiunto che ci sono modi positivi in cui vengono utilizzate voci generate dall’IA.
“Oltre ai rischi, tuttavia, una delle applicazioni più promettenti e compassionevoli della tecnologia vocale generata dall’IA è il suo potenziale per ripristinare le voci per le persone che non possono più parlare o che hanno un controllo limitato sulla loro voce fisica”, ha detto Lavan.
“Oggi, gli utenti possono scegliere di ricreare la loro voce originale, se è quello che preferiscono, o progettare una voce completamente nuova che riflette la loro identità e il loro gusto personale.”
Il video può anche essere profondo?
Allarmante, sì. I programmi AI possono essere utilizzati per generare video DeepFake di persone reali. Questo, combinato con audio generato dall’IA, significa video clip di persone che fanno e dicono che le cose che non hanno fatto può essere falsificata in modo molto convincente.
Inoltre, sta diventando sempre più difficile distinguere quali video su Internet sono reali e quali sono falsi.
DeepMedia, un’azienda che lavora su strumenti per rilevare i media sintetici, stima che circa otto milioni di fake Deep saranno stati creati e condivisi online entro la fine di quest’anno – un enorme aumento rispetto ai 500.000 condivisi online nel 2023.
Cos’altro vengono utilizzati i profondi?
Oltre alla frode telefonica e alle notizie false, Ai DeepFakes sono stati usati per creare contenuti sessuali su persone reali. La cosa più preoccupante, assomiglia al rapporto di AI, che è stato rilasciato a luglio, ha scoperto che i progressi nell’intelligenza artificiale hanno portato alla produzione industrializzata di materiale di abuso sessuale di minori generati dall’IA, che ha sopraffatto le forze dell’ordine a livello globale.
Nel maggio di quest’anno, il presidente degli Stati Uniti Donald Trump ha firmato un disegno di legge rendendo un crimine federale pubblicare immagini intime di una persona senza il loro consenso. Ciò include DeepFakes generati dall’AI. Il mese scorso, il governo australiano ha anche annunciato che avrebbe vietato un’applicazione utilizzata per creare immagini nude di DeepFake.




