I regolatori finanziari negli Stati Uniti hanno indicato per la prima volta l’intelligenza artificiale (AI) come un rischio per il sistema finanziario.
Nel suo ultimo rapporto annuale, il Financial Stability Oversight Council ha affermato che il crescente utilizzo dell’intelligenza artificiale nei servizi finanziari rappresenta una “vulnerabilità” che dovrebbe essere monitorata.
Sebbene l’intelligenza artificiale offra la promessa di ridurre i costi, migliorare l’efficienza, identificare relazioni più complesse e migliorare prestazioni e precisione, può anche “introdurre determinati rischi, compresi rischi per la sicurezza e la solidità come i rischi informatici e i rischi di modello”, ha affermato l’FSOC nella sua relazione annuale rapporto pubblicato giovedì.
Il FSOC, istituito sulla scia della crisi finanziaria del 2008 per identificare i rischi eccessivi nel sistema finanziario, ha affermato che gli sviluppi nell’intelligenza artificiale dovrebbero essere monitorati per garantire che i meccanismi di supervisione “tengano conto dei rischi emergenti” facilitando al tempo stesso “l’efficienza e l’innovazione”.
Le autorità devono anche “approfondire competenze e capacità” per monitorare il settore, ha affermato il FSOC.
Il segretario al Tesoro americano Janet Yellen, che presiede il FSOC, ha affermato che l’adozione dell’intelligenza artificiale potrebbe aumentare man mano che il settore finanziario adotta le tecnologie emergenti e il consiglio svolgerà un ruolo nel monitoraggio dei “rischi emergenti”.
“Sostenere l’innovazione responsabile in questo settore può consentire al sistema finanziario di trarre benefici come una maggiore efficienza, ma esistono anche principi e regole esistenti per la gestione del rischio che dovrebbero essere applicati”, ha affermato Yellen.
Il presidente degli Stati Uniti Joe Biden in ottobre ha emesso un ampio ordine esecutivo sull’intelligenza artificiale incentrato principalmente sulle potenziali implicazioni della tecnologia per la sicurezza nazionale e la discriminazione.
I governi e gli accademici di tutto il mondo hanno espresso preoccupazione per la velocità vertiginosa dello sviluppo dell’intelligenza artificiale, in mezzo a questioni etiche che abbracciano la privacy individuale, la sicurezza nazionale e la violazione del copyright.
In un recente sondaggio condotto da ricercatori dell’Università di Stanford, i lavoratori tecnologici coinvolti nella ricerca sull’intelligenza artificiale hanno avvertito che i loro datori di lavoro non riescono a mettere in atto tutele etiche nonostante il loro impegno pubblico a dare priorità alla sicurezza.
La scorsa settimana, i politici dell’Unione Europea hanno concordato una legislazione fondamentale che imporrà agli sviluppatori di intelligenza artificiale di divulgare i dati utilizzati per addestrare i loro sistemi ed effettuare test su prodotti ad alto rischio.