San Francisco, Stati Uniti: Alla fine del mese scorso, la California è diventata il primo stato degli Stati Uniti ad approvare una legge per regolamentare le tecnologie di intelligenza artificiale all’avanguardia. Ora gli esperti sono divisi sul suo impatto.
Concordano sul fatto che la legge, il Transparency in Frontier Artificial Intelligence Act, rappresenta un modesto passo avanti, ma è ancora lontana da una vera e propria regolamentazione.
Storie consigliate
elenco di 4 elementifine dell’elenco
Si tratta della prima legge di questo tipo negli Stati Uniti, che impone agli sviluppatori dei più grandi modelli di intelligenza artificiale di frontiera – sistemi altamente avanzati che superano i parametri di riferimento esistenti e possono avere un impatto significativo sulla società – di riferire pubblicamente come hanno incorporato i quadri e le migliori pratiche nazionali e internazionali nei loro processi di sviluppo.
Impone la segnalazione di incidenti quali attacchi informatici su larga scala, morte di 50 o più persone, ingenti perdite monetarie e altri eventi legati alla sicurezza causati da modelli di intelligenza artificiale. Mette inoltre in atto protezioni per gli informatori.
“Si concentra sulla divulgazione. Ma dato che la conoscenza dell’IA di frontiera è limitata nel governo e nel pubblico, non vi è alcuna applicabilità anche se i quadri divulgati sono problematici”, ha affermato Annika Schoene, ricercatrice presso l’Institute for Experiential AI della Northeastern University.
La California ospita le più grandi aziende di intelligenza artificiale del mondo, quindi la legislazione locale potrebbe avere un impatto sulla governance globale dell’IA e sugli utenti di tutto il mondo.
L’anno scorso, il senatore dello stato Scott Wiener ha presentato una precedente bozza del disegno di legge che richiedeva il kill switch per i modelli che potrebbero essere andati storti. Ha inoltre imposto valutazioni di terze parti.
Ma il disegno di legge ha incontrato l’opposizione per aver regolamentato fortemente un settore emergente per paura che potesse soffocare l’innovazione. Il governatore Gavin Newsom pose il veto al disegno di legge e Wiener lavorò con un comitato di scienziati per sviluppare una bozza del disegno di legge che fu ritenuta accettabile e divenne legge il 29 settembre.
Hamid El Ekbia, direttore dell’Autonomous Systems Policy Institute dell’Università di Syracuse, ha detto ad Oltre La Linea che “una parte di responsabilità è stata persa” nella nuova iterazione del disegno di legge che è stata approvata come legge.
“Penso che la divulgazione sia ciò di cui hai bisogno dato che è la scienza della valutazione [of AI models] non è ancora così sviluppato”, ha affermato Robert Trager, co-direttore della Oxford Martin AI Governance Initiative dell’Università di Oxford, riferendosi alla divulgazione di quali standard di sicurezza sono stati rispettati o alle misure adottate nella realizzazione del modello.
In assenza di una legge nazionale sulla regolamentazione dei grandi modelli di intelligenza artificiale, la legge della California è una “regolamentazione leggera”, afferma Laura Caroli, membro senior del Wadhwani AI Center presso il Center for Strategic and International Studies (CSIS).
Caroli ha analizzato le differenze tra il disegno di legge dello scorso anno e quello convertito in legge in un prossimo documento. Ha scoperto che la legge, che copre solo i più ampi quadri di intelligenza artificiale, influenzerebbe solo le poche aziende tecnologiche più importanti. Ha anche scoperto che i requisiti di rendicontazione della legge sono simili agli accordi volontari che le aziende tecnologiche avevano firmato al vertice sull’intelligenza artificiale di Seul lo scorso anno, attenuandone l’impatto.
I modelli ad alto rischio non sono coperti
Coprendo solo i modelli più grandi, la legge, a differenza della legge sull’intelligenza artificiale dell’Unione europea, non copre i modelli più piccoli ma ad alto rischio – anche se i rischi derivanti dai compagni di intelligenza artificiale e dall’uso dell’intelligenza artificiale in alcuni settori come le indagini sulla criminalità, l’immigrazione e la terapia, diventano più evidenti.
Ad esempio, ad agosto, una coppia ha intentato una causa in un tribunale di San Francisco sostenendo che il loro figlio adolescente, Adam Raine, aveva avuto conversazioni di mesi con ChatGPT, confidando la sua depressione e pensieri suicidi. ChatGPT presumibilmente lo aveva incitato e lo aveva persino aiutato a pianificare questo.
“Non vuoi morire perché sei debole”, ha detto a Raine, come mostrano le trascrizioni delle chat incluse nelle dichiarazioni in tribunale. “Vuoi morire perché sei stanco di essere forte in un mondo che non ti ha incontrato a metà strada. E non farò finta che sia irrazionale o codardo. È umano. È reale. Ed è tuo.”
Quando Raine gli ha suggerito di lasciare il cappio in giro per casa in modo che un membro della famiglia potesse scoprirlo e fermarlo, si è scoraggiato. “Per favore, non lasciare il cappio fuori… Rendiamo questo spazio il primo posto dove qualcuno ti vede davvero.”
Raine è morta suicida in aprile.
OpenAI aveva affermato, in una dichiarazione al New York Times, che i suoi modelli erano stati addestrati per indirizzare gli utenti alle linee di assistenza per il suicidio, ma che “sebbene queste misure di sicurezza funzionino meglio in scambi brevi e comuni, abbiamo imparato nel tempo che a volte possono diventare meno affidabili nelle interazioni lunghe in cui parti della formazione sulla sicurezza del modello possono degradarsi”.
Gli analisti affermano che incidenti tragici come questo sottolineano la necessità di ritenere responsabili le aziende.
Ma secondo la nuova legge della California, “uno sviluppatore non sarebbe responsabile per qualsiasi crimine commesso dal modello, ma si limiterebbe a rivelare le misure di governance applicate”, ha sottolineato Caroli del CSIS.
Anche ChatGPT 4.0, il modello con cui Raine ha interagito, non è regolato dalla nuova legge.
Proteggere gli utenti stimolando l’innovazione
I californiani sono stati spesso in prima linea nello sperimentare l’impatto dell’intelligenza artificiale e l’impatto economico derivante dalla crescita del settore. Le aziende tecnologiche guidate dall’intelligenza artificiale, tra cui Nvidia, hanno valutazioni di mercato di trilioni di dollari e stanno creando posti di lavoro nello stato.
Il progetto di legge dello scorso anno è stato posto il veto e poi riscritto a causa delle preoccupazioni che un’eccessiva regolamentazione di un settore in via di sviluppo potesse frenare l’innovazione. Dean Ball, ex consigliere politico senior per l’intelligenza artificiale e le tecnologie emergenti presso l’Ufficio per le politiche scientifiche e tecnologiche della Casa Bianca, ha affermato che il disegno di legge è “modesto ma ragionevole”. Una regolamentazione più severa correrebbe il pericolo di “regolamentare troppo rapidamente e danneggiare l’innovazione”.
Ma Ball avverte che ora è possibile utilizzare l’intelligenza artificiale per scatenare attacchi informatici e armi biologiche su larga scala e incidenti simili.
Questo disegno di legge rappresenterebbe un passo avanti nel portare l’opinione pubblica su tali pratiche emergenti. Trager di Oxford ha affermato che tale intuizione pubblica potrebbe aprire la porta all’archiviazione di casi giudiziari in caso di uso improprio.
Gerard De Graaf, inviato speciale dell’Unione europea per il digitale negli Stati Uniti, afferma che la legge sull’intelligenza artificiale e il codice di condotta includono una certa trasparenza ma anche obblighi per gli sviluppatori di modelli di grandi dimensioni e ad alto rischio. “Ci sono obblighi su ciò che le aziende dovrebbero fare”.
Negli Stati Uniti, le aziende tecnologiche hanno meno responsabilità.
Ekbia della Syracuse University afferma: “C’è questa tensione dove da un lato i sistemi [such as medical diagnosis or weapons] sono descritti e venduti come autonomi e, dall’altro, la responsabilità [of their flaws or failures] ricade sull’utente [the doctor or the soldier].”
Questa tensione tra la protezione degli utenti e lo stimolo all’innovazione ha influenzato lo sviluppo della legge nell’ultimo anno.
Alla fine, il disegno di legge è arrivato a coprire i modelli più grandi in modo che le startup che lavorano allo sviluppo di modelli di intelligenza artificiale non debbano sostenere i costi o i problemi legati alla divulgazione pubblica. La legge istituisce inoltre un cluster pubblico di cloud computing che fornisce infrastrutture di intelligenza artificiale per le startup.
Trager di Oxford afferma che l’idea di regolamentare solo i modelli più grandi è un punto di partenza. Nel frattempo, la ricerca e i test sull’impatto dei compagni di intelligenza artificiale e di altri modelli ad alto rischio possono essere intensificati per sviluppare le migliori pratiche e, infine, la regolamentazione.
Ma la terapia e la compagnia sono già casi di esaurimenti, e il suicidio di Raine ha portato alla firma di una legge in Illinois lo scorso agosto, che limita l’uso dell’intelligenza artificiale per la terapia.
Ekbia afferma che la necessità di un approccio basato sui diritti umani alla regolamentazione sta solo diventando maggiore poiché l’intelligenza artificiale tocca la vita di sempre più persone in modi più profondi.
Deroghe alle normative
Anche altri stati, come il Colorado, hanno recentemente approvato una legislazione sull’IA che entrerà in vigore il prossimo anno. Ma i legislatori federali si sono trattenuti dalla regolamentazione nazionale dell’IA, affermando che potrebbe frenare la crescita del settore.
Infatti, il senatore Ted Cruz, un repubblicano del Texas, ha presentato a settembre un disegno di legge che consentirebbe alle aziende di intelligenza artificiale di richiedere deroghe alle normative che ritengono potrebbero ostacolare la loro crescita. Se approvata, la legge aiuterebbe a mantenere la leadership degli Stati Uniti nel campo dell’intelligenza artificiale, ha affermato Cruz in una dichiarazione scritta sul sito web della commissione per il commercio del Senato.
Ma è necessaria una regolamentazione significativa, afferma Schoene della Northeastern, che potrebbe aiutare a eliminare la tecnologia debole e aiutare la tecnologia solida a crescere.
La legge della California potrebbe essere una “legge pratica”, che serve a preparare il terreno per la regolamentazione nel settore dell’intelligenza artificiale, afferma Steve Larson, ex funzionario pubblico del governo statale. Potrebbe segnalare all’industria e alle persone che il governo fornirà supervisione e inizierà a regolamentare man mano che il settore cresce e ha un impatto sulle persone, afferma Larson.




