Secondo un nuovo rapporto dei ricercatori dell’Università di Stanford, le aziende tecnologiche che hanno promesso di sostenere lo sviluppo etico dell’intelligenza artificiale (AI) non riescono a mantenere i loro impegni poiché la sicurezza passa in secondo piano rispetto ai parametri di prestazione e al lancio di prodotti.
Nonostante la pubblicazione dei principi dell’IA e l’impiego di scienziati sociali e ingegneri per condurre ricerche e sviluppare soluzioni tecniche relative all’etica dell’IA, molte aziende private devono ancora dare priorità all’adozione di garanzie etiche, ha affermato l’Institute for Human-Centered Artificial Intelligence di Stanford nel rapporto pubblicato giovedì. .
“Le aziende spesso ‘parlano’ dell’etica dell’IA, ma raramente ‘percorrono il cammino’ fornendo risorse adeguate e responsabilizzando i team che lavorano sull’intelligenza artificiale responsabile”, hanno affermato i ricercatori Sanna J Ali, Angele Christin, Andrew Smart e Riitta Katila nel rapporto intitolato Walking il Cammino dell’etica dell’intelligenza artificiale nelle aziende tecnologiche.
Basandosi sulle esperienze di 25 “professionisti dell’etica dell’IA”, il rapporto afferma che i lavoratori coinvolti nella promozione dell’etica dell’IA si sono lamentati della mancanza di supporto istituzionale e di essere stati esclusi dagli altri team all’interno di grandi organizzazioni nonostante le promesse contrarie.
I dipendenti hanno segnalato una cultura di indifferenza o ostilità dovuta ai product manager che vedono il loro lavoro come dannoso per la produttività, i ricavi o la tempistica di lancio del prodotto di un’azienda, afferma il rapporto.
“Essere molto forte nel mettere più freni [AI development] era una cosa rischiosa da fare”, ha detto una persona intervistata per il rapporto. “Non è stato integrato nel processo.”
Il rapporto non menziona le aziende in cui lavoravano i dipendenti intervistati.
Governi e accademici hanno espresso preoccupazione per la velocità dello sviluppo dell’intelligenza artificiale, con questioni etiche che toccano tutto, dall’uso di dati privati alla discriminazione razziale e alla violazione del copyright.
Tali preoccupazioni sono diventate più forti dopo il rilascio di ChatGPT da parte di OpenAI lo scorso anno e il successivo sviluppo di piattaforme rivali come Gemini di Google.
I dipendenti hanno detto ai ricercatori di Stanford che le questioni etiche vengono spesso prese in considerazione solo molto tardi, rendendo difficile apportare modifiche a nuove app o software, e che le considerazioni etiche sono spesso interrotte dalla frequente riorganizzazione dei team.
“I parametri relativi al coinvolgimento o alle prestazioni dei modelli di intelligenza artificiale hanno una priorità così alta che le raccomandazioni relative all’etica che potrebbero influenzare negativamente tali parametri richiedono prove quantitative inconfutabili”, afferma il rapporto.
“Tuttavia, i parametri quantitativi di etica o equità sono difficili da trovare e difficili da definire, dato che le infrastrutture dati esistenti delle aziende non sono adattate a tali parametri.”