I politici dell’Unione Europea hanno concordato una legislazione fondamentale per regolamentare l’intelligenza artificiale (AI), aprendo la strada alla serie di standard più ambiziosa mai vista prima per controllare l’uso di questa tecnologia rivoluzionaria.
L’accordo per sostenere l’“AI Act” di venerdì è arrivato dopo quasi 38 ore di negoziati tra legislatori e politici.
“L’AI Act è una novità mondiale. Un quadro giuridico unico per lo sviluppo dell’intelligenza artificiale di cui ti puoi fidare”, ha affermato il capo dell’UE Ursula von der Leyen.
“E per la sicurezza e i diritti fondamentali delle persone e delle imprese. Un impegno che abbiamo assunto nei nostri orientamenti politici e che abbiamo mantenuto. Accolgo con favore l’accordo politico di oggi”.
Gli sforzi per approvare l’“AI Act”, proposto per la prima volta dal braccio esecutivo dell’UE nel 2021, hanno subito un’accelerazione dal rilascio lo scorso anno del ChatGPT di OpenAI, che ha spinto il campo dell’IA in rapido sviluppo nella coscienza pubblica.
La legge è ampiamente vista come un punto di riferimento globale per i governi che sperano di sfruttare i potenziali benefici dell’intelligenza artificiale proteggendosi al tempo stesso dai rischi che vanno dalla disinformazione e dallo spostamento di posti di lavoro alla violazione del copyright.
La legislazione, che era stata ritardata dalle divisioni sulla regolamentazione dei modelli linguistici che eliminano i dati online e sull’uso dell’intelligenza artificiale da parte della polizia e dei servizi di intelligence, sarà ora sottoposta all’approvazione degli Stati membri e del Parlamento europeo.
Secondo la legge, le aziende tecnologiche che operano nell’UE saranno tenute a divulgare i dati utilizzati per addestrare i sistemi di intelligenza artificiale ed effettuare test sui prodotti, in particolare quelli utilizzati in applicazioni ad alto rischio come i veicoli a guida autonoma e l’assistenza sanitaria.
La legislazione vieta l’estrazione indiscriminata di immagini da Internet o filmati di sicurezza per creare database di riconoscimento facciale, ma prevede esenzioni per l’uso del riconoscimento facciale “in tempo reale” da parte delle forze dell’ordine per indagare sul terrorismo e su crimini gravi.
Le aziende tecnologiche che infrangono la legge rischiano multe fino al 7% delle entrate globali, a seconda della violazione e delle dimensioni dell’azienda.
La legislazione dell’UE è vista come lo sforzo più completo finora volto a regolamentare l’intelligenza artificiale in un crescente mosaico di linee guida e regolamenti a livello globale.
Negli Stati Uniti, il presidente Joe Biden in ottobre ha emesso un ordine esecutivo incentrato sull’impatto dell’intelligenza artificiale sulla sicurezza nazionale e sulla discriminazione, mentre la Cina ha varato regolamenti che richiedono che l’intelligenza artificiale rifletta i “valori fondamentali socialisti”.
Altri paesi come il Regno Unito e il Giappone hanno adottato un approccio in gran parte passivo alla regolamentazione.