Leggi, divieti scolastici e il dramma di Sam Altman: i grandi sviluppi dell’intelligenza artificiale nel 2023

Daniele Bianchi

Leggi, divieti scolastici e il dramma di Sam Altman: i grandi sviluppi dell’intelligenza artificiale nel 2023

L’industria dell’intelligenza artificiale (AI) ha iniziato il 2023 con il botto, mentre le scuole e le università hanno lottato con gli studenti che utilizzavano ChatGPT di OpenAI per aiutarli con i compiti e nella scrittura di saggi.

Meno di una settimana dopo l’inizio dell’anno, le scuole pubbliche di New York City hanno bandito ChatGPT – rilasciato settimane prima con enorme clamore – una mossa che avrebbe posto le basi per gran parte della discussione sull’intelligenza artificiale generativa nel 2023.

Man mano che cresceva il buzz attorno a ChatGPT sostenuto da Microsoft e ai rivali come Bard AI di Google, Ernie Chatbot di Baidu e LLaMA di Meta, crescevano anche le domande su come gestire una nuova e potente tecnologia che era diventata accessibile al pubblico da un giorno all’altro.

Mentre le immagini, la musica, i video e il codice informatico generati dall’intelligenza artificiale e creati da piattaforme come Stable Diffusion di Stability AI o DALL-E di OpenAI hanno aperto nuove entusiasmanti possibilità, hanno anche alimentato preoccupazioni sulla disinformazione, molestie mirate e violazione del copyright.

A marzo, un gruppo di oltre 1.000 firmatari, tra cui il co-fondatore di Apple Steve Wozniak e l’imprenditore miliardario della tecnologia Elon Musk, hanno chiesto una pausa nello sviluppo di un’intelligenza artificiale più avanzata alla luce dei suoi “profondi rischi per la società e l’umanità”.

Anche se non si è verificata una pausa, i governi e le autorità di regolamentazione hanno iniziato a varare nuove leggi e regolamenti per stabilire barriere allo sviluppo e all’uso dell’intelligenza artificiale.

Sebbene molte questioni relative all’intelligenza artificiale rimangano irrisolte in vista del nuovo anno, è probabile che il 2023 venga ricordato come una pietra miliare importante nella storia del settore.

Teatro all’OpenAI

Dopo che ChatGPT ha accumulato più di 100 milioni di utenti nel 2023, lo sviluppatore OpenAI è tornato alla ribalta a novembre quando il suo consiglio di amministrazione ha licenziato all’improvviso il CEO Sam Altman, sostenendo che non era “coerentemente sincero nelle sue comunicazioni con il consiglio”.

Sebbene la startup della Silicon Valley non abbia approfondito le ragioni del licenziamento di Altman, la sua rimozione è stata ampiamente attribuita a una lotta ideologica all’interno dell’azienda tra preoccupazioni di sicurezza e preoccupazioni commerciali.

La rimozione di Altman ha dato il via a cinque giorni di grande dramma pubblico che hanno visto lo staff di OpenAI minacciare di dimettersi in massa e Altman assunto per un breve periodo da Microsoft, fino alla sua reintegrazione e alla sostituzione del consiglio.

Sebbene OpenAI abbia cercato di superare il dramma, le domande sollevate durante lo sconvolgimento rimangono vere per il settore in generale, incluso come valutare la spinta al profitto e il lancio di nuovi prodotti rispetto ai timori che l’IA possa diventare troppo potente troppo rapidamente o crollare. nelle mani sbagliate.

In un sondaggio condotto dal Pew Research Center a luglio su 305 sviluppatori, politici e accademici, il 79% degli intervistati ha affermato di essere più preoccupato che entusiasta per il futuro dell’intelligenza artificiale, o altrettanto preoccupato quanto entusiasta.

Nonostante il potenziale dell’intelligenza artificiale di trasformare i campi dalla medicina all’istruzione e alle comunicazioni di massa, gli intervistati hanno espresso preoccupazione per rischi quali la sorveglianza di massa, le molestie da parte del governo e della polizia, lo sfollamento del lavoro e l’isolamento sociale.

Sean McGregor, fondatore di Responsible AI Collaborative, ha affermato che il 2023 ha messo in mostra le speranze e le paure che esistono intorno all’intelligenza artificiale generativa, nonché le profonde divisioni filosofiche all’interno del settore.

“La cosa più promettente è la luce che ora risplende sulle decisioni sociali intraprese dai tecnologi, anche se è preoccupante che molti dei miei colleghi nel settore tecnologico sembrino considerare negativamente tale attenzione”, ha detto McGregor ad Oltre La Linea, aggiungendo che l’intelligenza artificiale dovrebbe essere modellata dal ” bisogni delle persone più colpite”.

“Mi sento ancora ampiamente positivo, ma saranno alcuni decenni impegnativi quando ci renderemo conto che il discorso sulla sicurezza dell’intelligenza artificiale è una versione tecnologica fantasiosa di secolari sfide sociali”, ha affermato.

Legiferare sul futuro

A dicembre, i politici dell’Unione Europea hanno concordato una legislazione radicale per regolamentare il futuro dell’intelligenza artificiale, coronando un anno di sforzi da parte dei governi nazionali e degli organismi internazionali come le Nazioni Unite e il G7.

Le principali preoccupazioni riguardano le fonti di informazione utilizzate per addestrare gli algoritmi di intelligenza artificiale, molte delle quali vengono recuperate da Internet senza considerare la privacy, i pregiudizi, l’accuratezza o il copyright.

Il progetto di legislazione dell’UE impone agli sviluppatori di divulgare i propri dati di formazione e il rispetto delle leggi del blocco, con limitazioni su determinati tipi di utilizzo e un percorso per i reclami degli utenti.

Simili sforzi legislativi sono in corso negli Stati Uniti, dove il presidente Joe Biden in ottobre ha emesso un ampio ordine esecutivo sugli standard dell’intelligenza artificiale, e nel Regno Unito, che a novembre ha ospitato l’AI Safety Summit che ha coinvolto 27 paesi e stakeholder del settore.

La Cina ha inoltre adottato misure per regolamentare il futuro dell’intelligenza artificiale, emanando norme provvisorie per gli sviluppatori che impongono loro di sottoporsi a una “valutazione della sicurezza” prima di rilasciare i prodotti al pubblico.

Le linee guida limitano inoltre i dati sulla formazione dell’IA e vietano i contenuti considerati “sostenendo il terrorismo”, “minando la stabilità sociale”, “rovesciando il sistema socialista” o “danneggiando l’immagine del Paese”.

A livello globale, il 2023 ha visto anche il primo accordo internazionale interinale sulla sicurezza dell’IA, firmato da 20 paesi, tra cui Stati Uniti, Regno Unito, Germania, Italia, Polonia, Estonia, Repubblica Ceca, Singapore, Nigeria, Israele e Cile.

L’intelligenza artificiale e il futuro del lavoro

Le domande sul futuro dell’intelligenza artificiale sono dilaganti anche nel settore privato, dove il suo utilizzo ha già portato a azioni legali collettive negli Stati Uniti da parte di scrittori, artisti e organi di stampa per presunta violazione del copyright.

I timori che l’intelligenza artificiale possa sostituire i posti di lavoro sono stati un fattore trainante dietro gli scioperi durati mesi a Hollywood da parte della Screen Actors Guild e della Writers Guild of America.

A marzo, Goldman Sachs aveva previsto che l’intelligenza artificiale generativa potrebbe sostituire 300 milioni di posti di lavoro attraverso l’automazione e avere un impatto, almeno in qualche modo, su due terzi dei posti di lavoro attuali in Europa e negli Stati Uniti, rendendo il lavoro più produttivo ma anche più automatizzato.

Altri hanno cercato di mitigare le previsioni più catastrofiche.

Ad agosto, l’Organizzazione Internazionale del Lavoro, l’agenzia delle Nazioni Unite per il lavoro, ha affermato che l’intelligenza artificiale generativa ha maggiori probabilità di aumentare la maggior parte dei posti di lavoro piuttosto che sostituirli, con il lavoro d’ufficio elencato come l’occupazione più a rischio.

Anno del ‘deepfake’?

L’anno 2024 sarà un anno di prova importante per l’intelligenza artificiale generativa, poiché nuove app arriveranno sul mercato e nuove leggi entreranno in vigore in un contesto di sconvolgimenti politici globali.

Nei prossimi 12 mesi, più di due miliardi di persone voteranno alle elezioni in un numero record di 40 paesi, compresi i punti caldi geopolitici come Stati Uniti, India, Indonesia, Pakistan, Venezuela, Sud Sudan e Taiwan.

Sebbene le campagne di disinformazione online siano già una parte regolare di molti cicli elettorali, si prevede che i contenuti generati dall’intelligenza artificiale peggioreranno le cose poiché le informazioni false diventano sempre più difficili da distinguere da quelle reali e più facili da replicare su larga scala.

I contenuti generati dall’intelligenza artificiale, comprese le immagini “deepfake”, sono già stati utilizzati per suscitare rabbia e confusione in zone di conflitto come Ucraina e Gaza, e sono stati presenti in gare elettorali molto combattute come le elezioni presidenziali statunitensi.

Meta il mese scorso ha detto agli inserzionisti che impedirà gli annunci politici su Facebook e Instagram realizzati con l’intelligenza artificiale generativa, mentre YouTube ha annunciato che richiederà ai creatori di etichettare i contenuti generati dall’intelligenza artificiale dall’aspetto realistico.

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.