L'intelligenza artificiale ha bisogno di una "governance globale", non può essere lasciata al mercato, afferma il panel delle Nazioni Unite

Daniele Bianchi

L’amministrazione Trump potrebbe invertire i progressi sulla regolamentazione dell’IA

Mentre gli sforzi per regolamentare la creazione e l’uso degli strumenti di intelligenza artificiale (AI) negli Stati Uniti hanno tardato a ottenere risultati, l’amministrazione del presidente Joe Biden ha tentato di delineare come l’intelligenza artificiale dovrebbe essere utilizzata dal governo federale e come le società di intelligenza artificiale dovrebbero farlo. garantire la sicurezza e la protezione dei propri strumenti.

La nuova amministrazione Trump, tuttavia, ha una visione molto diversa su come affrontare l’intelligenza artificiale e potrebbe finire per invertire alcuni dei progressi compiuti negli ultimi anni.

Il presidente Biden ha firmato un ordine esecutivo nell’ottobre 2023 che aveva lo scopo di promuovere “lo sviluppo e l’uso sicuro, protetto e affidabile dell’intelligenza artificiale” all’interno del governo federale. Il presidente eletto Donald Trump ha promesso di abrogare l’ordine esecutivo, affermando che ostacolerebbe l’innovazione.

Biden è riuscito anche a convincere sette aziende leader nel settore dell’intelligenza artificiale ad accettare linee guida su come l’intelligenza artificiale dovrebbe essere sviluppata in modo sicuro in futuro. A parte questo, non esistono regolamenti federali che affrontino specificamente l’IA. Gli esperti affermano che l’amministrazione Trump probabilmente avrà un approccio più diretto al settore.

“Penso che la cosa più importante che vedremo sarà la massiccia abrogazione dei primi passi compiuti dall’amministrazione Biden verso una regolamentazione significativa dell’intelligenza artificiale”, afferma Cody Venzke, consulente politico senior presso il Dipartimento di difesa politica nazionale dell’ACLU. “Penso che ci sia una minaccia reale che vedremo una crescita dell’IA senza barriere significative, e sarà un po’ tutti contro tutti.”

La crescita senza barriere è ciò che l’industria ha visto finora, e questo ha portato a una sorta di selvaggio West nell’intelligenza artificiale. Ciò può causare problemi, inclusa la diffusione del deepfake porno e dei deepfake politici, senza che i legislatori limitino il modo in cui la tecnologia può essere utilizzata.

Una delle principali preoccupazioni dell’amministrazione Biden, e di chi opera nel campo delle politiche tecnologiche, è stata come l’intelligenza artificiale generativa possa essere utilizzata per condurre campagne di disinformazione, compresi i deepfake, che sono video fraudolenti di persone che le mostrano mentre dicono o fanno cose che non hanno mai fatto. . Questo tipo di contenuto può essere utilizzato per tentare di influenzare i risultati elettorali. Venzke afferma di non aspettarsi che l’amministrazione Trump si concentri sulla prevenzione della diffusione della disinformazione.

Le normative sull’intelligenza artificiale potrebbero non essere necessariamente un obiettivo importante per l’amministrazione Trump, afferma Venzke, ma è sul loro radar. Proprio questa settimana, Trump ha scelto Andrew Ferguson per guidare la Federal Trade Commission (FTC) – e probabilmente si opporrà alla regolamentazione del settore.

Ferguson, un commissario della FTC, ha affermato che mirerà a “porre fine al tentativo della FTC di diventare un regolatore dell’intelligenza artificiale”, ha riferito Punchbowl News, e ha affermato che la FTC, un’agenzia indipendente responsabile nei confronti del Congresso degli Stati Uniti, dovrebbe essere totalmente responsabile nei confronti di lo Studio Ovale. Ha anche suggerito che la FTC indaghi sulle aziende che rifiutano di fare pubblicità accanto a contenuti odiosi ed estremisti sulle piattaforme di social media.

Venzke afferma che i repubblicani pensano che i democratici vogliano regolamentare l’intelligenza artificiale per farla “svegliare”, il che significa che riconoscerebbe cose come l’esistenza delle persone transgender o il cambiamento climatico provocato dall’uomo.

La capacità dell’intelligenza artificiale di “informare le decisioni”

L’intelligenza artificiale però non si limita a rispondere a domande e a generare immagini e video. Kit Walsh, direttore dei progetti legali sull’intelligenza artificiale e sull’accesso alla conoscenza presso la Electronic Frontier Foundation, dice ad Oltre La Linea che l’intelligenza artificiale viene utilizzata in molti modi che minacciano le libertà individuali delle persone, anche nei casi giudiziari, ed è necessaria una regolamentazione per prevenire danni. .

Mentre le persone pensano che i computer che prendono decisioni possano eliminare i pregiudizi, in realtà possono far sì che i pregiudizi diventino più radicati se l’intelligenza artificiale viene creata utilizzando dati storici che sono essi stessi distorti. Ad esempio, un sistema di intelligenza artificiale creato per determinare chi riceve la libertà condizionale potrebbe utilizzare i dati di casi in cui i neri americani hanno ricevuto un trattamento più duro rispetto ai bianchi americani.

“La questione più importante dell’intelligenza artificiale in questo momento è il suo utilizzo per prendere decisioni informate sui diritti delle persone”, afferma Walsh. “Ciò spazia da tutto, dalla polizia predittiva alla decisione su chi ottiene gli alloggi governativi ai benefici sanitari. È anche l’uso privato del processo decisionale algoritmico per assunzioni, licenziamenti, alloggi e così via”.

Walsh ritiene che ci sia molto “ottimismo tecnologico e soluzionismo” tra alcune delle persone che Trump è interessato a reclutare nella sua amministrazione, e che potrebbero finire per provare a utilizzare l’intelligenza artificiale per promuovere “l’efficienza nel governo”.

Questo è l’obiettivo dichiarato di persone come Elon Musk e Vivek Ramaswamy, che guideranno quello che sembra essere un comitato consultivo chiamato Dipartimento per l’efficienza governativa.

“È vero che puoi risparmiare denaro e licenziare alcuni dipendenti se sei d’accordo con decisioni meno accurate [that come with AI tools]. E questa potrebbe essere la strada che qualcuno potrebbe intraprendere nell’interesse di ridurre la spesa pubblica. Ma lo sconsiglio perché danneggerebbe le persone che fanno affidamento sulle agenzie governative per i servizi essenziali”, afferma Walsh.

Se il primo mandato di Trump come presidente degli Stati Uniti nel 2017-2021 offrirà qualche indizio su cosa aspettarsi, l’amministrazione Trump probabilmente dedicherà molto più tempo alla deregolamentazione che alla creazione di nuove normative. Ciò include le normative relative alla creazione e all’uso di strumenti di intelligenza artificiale.

“Vorrei vedere una regolamentazione sensata che apra la strada allo sviluppo, all’implementazione e all’uso socialmente responsabile dell’intelligenza artificiale”, afferma Shyam Sundar, direttore del Penn State Center for Socially Responsible Artificial Intelligence. “Allo stesso tempo, il regolamento non dovrebbe essere così pesante da limitare l’innovazione”.

Sundar afferma che la “nuova rivoluzione” innescata dall’intelligenza artificiale generativa ha creato “un po’ di mentalità da selvaggio West tra i tecnologi”. Le future normative, afferma, dovrebbero concentrarsi sulla creazione di guardrail ove necessario e sulla promozione dell’innovazione nelle aree in cui l’intelligenza artificiale può essere utile.

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.