Elon Musk vuole usare l'IA per gestirci Gov't, ma gli esperti dicono un'idea "molto negativa"

Daniele Bianchi

Elon Musk vuole usare l’IA per gestirci Gov’t, ma gli esperti dicono un’idea “molto negativa”

Elon Musk ha intenzione di usare l’intelligenza artificiale per gestire il governo degli Stati Uniti? Questo sembra essere il suo piano, ma gli esperti dicono che è una “cattiva idea”.

Musk ha licenziato decine di migliaia di impiegati del governo federale attraverso il suo Dipartimento di efficienza del governo (DOGE) e, secondo quanto riferito, richiede ai lavoratori rimanenti di inviare al Dipartimento un’e -mail settimanale con cinque punti elenco che descrivono ciò che hanno realizzato quella settimana.

Dal momento che questo senza dubbio inondazione di Doge con centinaia di migliaia di questi tipi di e -mail, Musk si basa sull’intelligenza artificiale per elaborare le risposte e aiutare a determinare chi dovrebbe rimanere impiegato. Secondo quanto riferito, parte di quel piano è anche quella di sostituire molti lavoratori governativi con sistemi di intelligenza artificiale.

Non è ancora chiaro come siano uno di questi sistemi di intelligenza artificiale o come funzionano – qualcosa che i democratici nel Congresso degli Stati Uniti chiedono di essere compilati – ma gli esperti avvertono che l’utilizzo dell’IA nel governo federale senza test e verifica solide di questi strumenti potrebbero avere conseguenze disastrose.

“Per usare gli strumenti di intelligenza artificiale in modo responsabile, devono essere progettati tenendo conto di uno scopo particolare. Devono essere testati e validati. Non è chiaro se nulla di tutto ciò venga fatto qui “, afferma Cary Cogliaianese, professore di diritto e scienze politiche all’Università della Pennsylvania.

Cogliaese afferma che se l’IA viene utilizzata per prendere decisioni su chi dovrebbe essere interrotto dal loro lavoro, sarebbe “molto scettico” di quell’approccio. Dice che esiste un potenziale molto reale per gli errori da commettere, per l’IA di essere distorti e per altri potenziali problemi.

“È una pessima idea. Non sappiamo nulla di come un’IA prendere tali decisioni [including how it was trained and the underlying algorithms]i dati su cui si baserebbero tali decisioni o perché dovremmo credere che sia affidabile ”, afferma Shobita Parthasarathy, professore di politica pubblica presso l’Università del Michigan.

Queste preoccupazioni non sembrano trattenere l’attuale governo, in particolare con Musk – un uomo d’affari miliardario e un consigliere stretto del presidente degli Stati Uniti Donald Trump – che guida l’accusa di questi sforzi.

Il Dipartimento di Stato degli Stati Uniti, ad esempio, sta pianificando di utilizzare l’IA per scansionare i conti dei social media di cittadini stranieri per identificare chiunque possa essere un sostenitore di Hamas nel tentativo di revocare i loro visti. Finora il governo degli Stati Uniti non è stato trasparente su come potrebbero funzionare questo tipo di sistemi.

Danni non rilevati

“L’amministrazione Trump è davvero interessata a perseguire l’IA a tutti i costi e vorrei vedere un uso equo, giusto ed equo dell’IA”, afferma Hilke Schellmann, professore di giornalismo alla New York University e esperto di intelligenza artificiale. “Potrebbero esserci molti danni che non vengono rilevati.”

Gli esperti di intelligenza artificiale affermano che ci sono molti modi in cui l’uso del governo dell’intelligenza artificiale può sbagliare, motivo per cui deve essere adottato attentamente e coscienziosamente. Cogliaese afferma che i governi di tutto il mondo, compresi i Paesi Bassi e il Regno Unito, hanno avuto problemi con l’IA scarsamente eseguita che possono commettere errori o mostrare pregiudizi e di conseguenza hanno erroneamente negato i benefici del benessere dei residenti di cui hanno bisogno, ad esempio.

Negli Stati Uniti, lo stato del Michigan ha avuto un problema con l’IA che veniva utilizzato per trovare frode nel suo sistema di disoccupazione quando ha identificato erroneamente migliaia di casi di presunte frodi. Molti di questi benefici negati sono stati trattati duramente, incluso essere colpiti da sanzioni multiple e accusati di frode. Le persone sono state arrestate e persino hanno presentato istanza di fallimento. Dopo un periodo di cinque anni, lo stato ha ammesso che il sistema era difettoso e un anno dopo ha finito per rimborsare $ 21 milioni ai residenti accusati erroneamente di frode.

“Il più delle volte, i funzionari che acquistano e distribuiscono queste tecnologie sanno poco su come funzionano, i loro pregiudizi e limiti ed errori”, afferma Parthasarathy. “Perché le comunità a basso reddito e altrimenti emarginate tendono ad avere il maggior contatto con i governi attraverso i servizi sociali [such as unemployment benefits, foster care, law enforcement]tendono ad essere influenzati maggiormente dall’intelligenza artificiale problematica. “

L’intelligenza artificiale ha anche causato problemi al governo quando è stato utilizzato in tribunale per determinare cose come l’idoneità della libertà condizionale di qualcuno o nei dipartimenti di polizia quando è stato utilizzato per cercare di prevedere dove si verifichi il crimine.

Schellmann afferma che l’intelligenza artificiale utilizzata dai dipartimenti di polizia è in genere addestrata su dati storici di tali dipartimenti e che può far sì che l’IA raccomanda a aree di eccesso di polizia che sono state a lungo esagerate, in particolare le comunità di colore.

L’IA non capisce nulla

Uno dei problemi con potenzialmente che usano l’IA per sostituire i lavoratori del governo federale è che ci sono così tanti tipi diversi di posti di lavoro nel governo che richiedono competenze e conoscenze specifiche. Una persona IT nel Dipartimento di Giustizia potrebbe avere un lavoro molto diverso da uno nel Dipartimento dell’Agricoltura, ad esempio, anche se hanno lo stesso titolo di lavoro. Un programma di intelligenza artificiale, pertanto, dovrebbe essere complesso e altamente addestrato anche per fare un lavoro mediocre nella sostituzione di un lavoratore umano.

“Non credo che tu possa tagliare casualmente il lavoro delle persone e poi [replace them with any AI]”Dice Cogliaianese. “I compiti che queste persone stavano svolgendo sono spesso altamente specializzati e specifici.”

Schellmann dice che potresti usare l’IA per fare parti del lavoro di qualcuno che potrebbe essere prevedibile o ripetitivo, ma non puoi semplicemente sostituire completamente qualcuno. Ciò sarebbe teoricamente possibile se dovessi passare anni a sviluppare gli strumenti di intelligenza artificiale giusti per fare molti, molti diversi tipi di posti di lavoro – un compito molto difficile e non ciò che il governo sembra attualmente fare.

“Questi lavoratori hanno una vera competenza e una comprensione sfumata delle questioni, che l’IA no. L’intelligenza artificiale non “comprende” nulla “, afferma Parthasarathy. “È un uso di metodi computazionali per trovare modelli, basati su dati storici. E così è probabile che abbia un’utilità limitata e rafforzino persino pregiudizi storici. “

L’amministrazione dell’ex presidente degli Stati Uniti Joe Biden ha emesso un ordine esecutivo nel 2023 incentrato sull’uso responsabile dell’IA nel governo e su come l’IA sarebbe stata testata e verificata, ma questo ordine è stato annullato dall’amministrazione Trump a gennaio. Schellmann afferma che ciò ha reso meno probabile che l’IA sarà usata in modo responsabile al governo o che i ricercatori saranno in grado di capire come viene utilizzata l’IA.

Tutto ciò ha detto che, se l’IA è sviluppata in modo responsabile, può essere molto utile. L’intelligenza artificiale può automatizzare compiti ripetitivi in ​​modo che i lavoratori possano concentrarsi su cose più importanti o aiutare i lavoratori a risolvere i problemi con cui stanno lottando. Ma deve essere concesso il tempo per essere distribuito nel modo corretto.

“Questo non vuol dire che non potremmo usare saggiamente strumenti di intelligenza artificiale”, afferma Cogliaianese. “Ma i governi si smarrivano quando cercano di correre e fare le cose rapidamente senza un adeguato input pubblico e una convalida approfondita e una verifica di come funziona effettivamente l’algoritmo.”

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.