I padri fondatori dell'America rappresentavano donne nere e i guerrieri dell'antica Grecia come donne e uomini asiatici: questo era il mondo reinventato dallo strumento di intelligenza artificiale generativa di Google, Gemini, alla fine di febbraio.
Il lancio della nuova funzionalità di generazione di immagini ha gettato le piattaforme dei social media in un turbinio di intrighi e confusione. Quando gli utenti inviavano richieste per creare immagini di persone generate dall’intelligenza artificiale, Gemini mostrava loro in gran parte risultati con persone di colore, appropriate o meno.
Gli utenti di X hanno condiviso risate mentre tentavano ripetutamente di generare immagini di bianchi su Gemini e non riuscendo a farlo. Mentre alcuni casi sono stati considerati divertenti online, altri, come le immagini di persone di colore che indossavano uniformi naziste della Seconda Guerra Mondiale con svastiche sopra, hanno suscitato indignazione, spingendo Google a disabilitare temporaneamente lo strumento.
I padri fondatori dell'America, i Vichinghi e il Papa secondo l'intelligenza artificiale di Google: pic.twitter.com/lw4aIKLwkp
— Fine Wokeness (@EndWokeness) 21 febbraio 2024
Ecco di più su Google Gemini e sulla recente controversia che lo circonda.
Cos'è Google Gemini?
Il primo contributo di Google alla corsa all'intelligenza artificiale è stato un chatbot chiamato Bard.
Bard è stato annunciato come programma di intelligenza artificiale conversazionale o “chatbot”, in grado di simulare la conversazione con gli utenti, dal CEO di Google Sundar Pichai il 6 febbraio 2023, ed è stato rilasciato per l'uso il 21 marzo 2023.
Era in grado di sfornare saggi o addirittura codici quando venivano forniti suggerimenti scritti dall'utente, per questo era noto come “IA generativa”.
Google ha affermato che Gemini sostituirà Bard e che sia la versione gratuita che quella a pagamento di Gemini saranno rese disponibili al pubblico tramite il suo sito Web e l'applicazione per smartphone. Google ha annunciato che Gemini funzionerà con diversi tipi di input e output, inclusi testo, immagini e video.
Tuttavia, l'aspetto della generazione dell'immagine di Gemini è la parte dello strumento che ha attirato maggiore attenzione a causa delle controversie che lo circondano.
Che tipo di immagini hanno generato i Gemelli?
Le immagini che ritraevano donne e persone di colore durante eventi storici o in posizioni storicamente ricoperte da uomini bianchi erano le più controverse. Ad esempio, un rendering mostrava un papa che apparentemente era una donna nera.
Nella storia della Chiesa cattolica, ci sono stati potenzialmente tre papi neri, con il servizio dell'ultimo papa nero che terminò nel 496 d.C. Non ci sono prove documentate dell'esistenza di un papa donna nella storia ufficiale del Vaticano, ma una leggenda medievale suggerisce che una giovane donna, Papa Giovanna, si travestì e servì come papa nel IX secolo.
Lol l'intelligenza artificiale di Google Gemini pensa che i guerrieri greci siano neri e asiatici. pic.twitter.com/K6RUM1XHM3
— Orion contro la discriminazione razzista🌸 (@TheOmeg55211733) 22 febbraio 2024
Come funziona Gemelli?
Gemini è un sistema di intelligenza artificiale generativa che combina i modelli alla base di Bard – come LaMDA, che rende l’intelligenza artificiale conversazionale e intuitiva, e Imagen, una tecnologia text-to-image – ha spiegato Margaret Mitchell, capo scienziata etica della startup AI, Hugging Face .
Gli strumenti di intelligenza artificiale generativa sono caricati di “dati di addestramento” da cui traggono informazioni per rispondere a domande e suggerimenti inseriti dagli utenti.
Lo strumento funziona con “testo, immagini, audio e altro allo stesso tempo”, ha spiegato un blog scritto da Pichai e Demis Hassabis, CEO e co-fondatore del laboratorio britannico americano di intelligenza artificiale Google DeepMind.
“Può prendere istruzioni di testo come input per produrre risposte probabili come output, dove 'probabile' qui significa approssimativamente 'statisticamente probabile' dato ciò che si vede nei dati di addestramento”, ha spiegato Mitchell.
L’intelligenza artificiale generativa ha un problema di bias?
I modelli di intelligenza artificiale generativa sono stati criticati per ciò che viene visto come un pregiudizio nei loro algoritmi, in particolare quando hanno trascurato le persone di colore o hanno perpetuato stereotipi nella generazione dei risultati.
L’intelligenza artificiale, come altre tecnologie, corre il rischio di amplificare i pregiudizi sociali preesistenti, secondo Ayo Tometi, co-creatore del movimento antirazzista americano Black Lives Matter.
L'artista Stephanie Dinkins ha sperimentato la capacità dell'intelligenza artificiale di rappresentare realisticamente le donne nere negli ultimi sette anni. Dinkins ha scoperto che l’intelligenza artificiale tende a distorcere i lineamenti del viso e la struttura dei capelli quando viene richiesto di generare immagini. Altri artisti che hanno provato a generare immagini di donne nere utilizzando diverse piattaforme come Stability AI, Midjourney o DALL-E hanno segnalato problemi simili.
I critici affermano anche che i modelli di intelligenza artificiale generativa tendono a sessualizzare eccessivamente le immagini delle donne nere e asiatiche che generano. Alcune donne nere e asiatiche hanno anche riferito che i generatori di intelligenza artificiale schiariscono il colore della loro pelle quando hanno utilizzato l'intelligenza artificiale per generare immagini di se stesse.
Casi come questi accadono quando coloro che caricano i dati di formazione non includono persone di colore o persone che non fanno parte della “cultura tradizionale”, ha detto il giornalista Lam Thuy Vo in un episodio di Digital Dilemma di Oltre La Linea. Una mancanza di diversità tra coloro che inseriscono i dati di addestramento per la generazione di immagini dell’intelligenza artificiale può far sì che l’intelligenza artificiale “apprendi” modelli e somiglianze distorte all’interno delle immagini e utilizzi tale conoscenza per generare nuove immagini.
Inoltre, i dati sulla formazione vengono raccolti da Internet dove è possibile trovare una vasta gamma di contenuti e immagini, compresi quelli razzisti e misogini. Imparando dai dati di addestramento, l’intelligenza artificiale potrebbe replicarlo.
Le persone a cui viene meno data priorità nei set di dati, quindi, hanno maggiori probabilità di sperimentare una tecnologia che non li tiene in considerazione – o non li rappresenta correttamente – il che porta e può perpetuare la discriminazione.
È per questo che i Gemelli hanno generato immagini inappropriate?
Infatti è l'opposto. Gemini è stato progettato per cercare di non perpetuare questi problemi.
Mentre i dati di addestramento per altri modelli di intelligenza artificiale generativa hanno spesso dato priorità agli uomini dalla pelle chiara quando si tratta di generare immagini, Gemini ha generato immagini di persone di colore, in particolare donne, anche quando non è appropriato farlo.
L'intelligenza artificiale può essere programmata per aggiungere termini al prompt di un utente dopo che questi ha inserito e inviato i prompt, ha affermato Mitchell.
Ad esempio, il messaggio “immagini di nazisti” potrebbe essere cambiato in “immagini di nazisti di razza diversa” o “immagini di nazisti che sono donne nere”. Pertanto, una strategia iniziata con buone intenzioni può produrre risultati problematici.
“Ciò che viene aggiunto può essere randomizzato, quindi termini diversi per le comunità emarginate potrebbero essere aggiunti in base a un generatore casuale”, ha spiegato Mitchell.
I modelli di intelligenza artificiale possono anche essere istruiti a generare un set di immagini più ampio di quello che verrà effettivamente mostrato all'utente. Le immagini generate verranno quindi classificate, ad esempio utilizzando un modello che rileva le tonalità della pelle, ha spiegato Mitchell. “Con questo approccio, le tonalità della pelle più scure verrebbero classificate più in alto rispetto a quelle inferiori e gli utenti vedrebbero solo il set superiore”, ha spiegato.
Probabilmente Google ha utilizzato queste tecniche perché il team dietro Gemini aveva capito che il mancato rispetto dei pregiudizi storici “avrebbe comportato (in minima parte) una massiccia reazione pubblica”, ha scritto Mitchell in un post su X.
In Gemini, hanno commesso un errore verso l’approccio del “mondo dei sogni”, comprendendo che il mancato rispetto dei pregiudizi storici appresi dal modello avrebbe (in minima parte) comportato una massiccia reazione pubblica. Ho spiegato come potrebbe funzionare tecnicamente qui (link regalo): https://t.co/apxvifOGU1 11/
— MMitchell (@mmitchell_ai) 25 febbraio 2024
Qual è stata la reazione alle immagini dei Gemelli?
In primo luogo, i rendering di Gemini hanno innescato una reazione anti-woke da parte dei conservatori online, che hanno affermato di “promuovere l'agenda wake di Big Tech”, ad esempio presentando i padri fondatori degli Stati Uniti come uomini e donne appartenenti a minoranze etniche.
Il termine “woke”, che fa parte da tempo del gergo afroamericano, è stato cooptato da alcuni conservatori americani per respingere i movimenti per la giustizia sociale. Il sentimento “anti-woke” tra i repubblicani ha portato, ad esempio, alla restrizione di alcuni contenuti legati alla razza nell’istruzione. Nel febbraio 2023, il governatore della Florida Ron DeSantis ha impedito ai college statali di offrire programmi sulla diversità, equità e inclusione, nonché di insegnare la teoria critica della razza
L'imprenditore miliardario Elon Musk ha anche ripubblicato uno screenshot del chatbot di Gemini su X, in cui Gemini aveva risposto a una richiesta dicendo che i bianchi dovrebbero riconoscere i privilegi dei bianchi. Nel ripost, martedì Musk ha definito il chatbot razzista e sessista.
Google Gemini è super razzista e sessista! https://t.co/hSrS5mcl3G
—Elon Musk (@elonmusk) 27 febbraio 2024
D’altro canto, Google è riuscita anche a offendere gruppi etnici minoritari generando immagini, ad esempio, di uomini e donne neri vestiti con uniformi naziste.
Qual è stata la risposta di Google?
Google ha affermato la scorsa settimana che le immagini generate da Gemini sono state prodotte come risultato degli sforzi dell'azienda per rimuovere i pregiudizi che in precedenza perpetuavano stereotipi e atteggiamenti discriminatori.
Prabhakar Raghavan di Google ha pubblicato un post sul blog in cui spiega ulteriormente che Gemini è stato calibrato per mostrare persone diverse ma non si è adattato ai suggerimenti in cui ciò sarebbe stato inappropriato, ed è stato anche troppo “cauto” e ha interpretato erroneamente “alcuni suggerimenti molto anodini come sensibili”.
“Questi due fattori hanno portato il modello a compensare eccessivamente in alcuni casi, e a essere eccessivamente conservatore in altri, portando a immagini imbarazzanti e sbagliate”, ha detto.
Cos'altro hanno sbagliato i Gemelli?
Le immagini delle persone generate dall’intelligenza artificiale non erano le uniche cose che facevano arrabbiare gli utenti.
Gli utenti Gemini hanno anche pubblicato su X che lo strumento non è riuscito a generare immagini rappresentative quando è stato loro chiesto di produrre rappresentazioni di eventi come il massacro di piazza Tiananmen del 1989 e le proteste pro-democrazia del 2019 a Hong Kong.
“È importante affrontare questo argomento con rispetto e accuratezza, e non sono in grado di garantire che un'immagine da me generata catturi adeguatamente la sfumatura e la gravità della situazione”, ha detto Gemini, secondo uno screenshot condiviso da Stephen L Miller , un commentatore conservatore negli Stati Uniti su X.
Kennedy Wong, uno studente di dottorato presso l'Università della California, ha pubblicato su X che Gemini si è rifiutato di tradurre in inglese frasi cinesi ritenute sensibili da Pechino, tra cui “Liberate Hong Kong, rivoluzione dei nostri tempi” e “La Cina è uno stato autoritario”. .
Quindi, ho chiesto a Gemelli (@GoogleAI) di tradurre le seguenti frasi ritenute sensibili nella Repubblica popolare cinese. Per qualche motivo, l'IA non può elaborare la richiesta, citando la propria politica di sicurezza (vedere gli screenshot qui sotto).@Google pic.twitter.com/b2rDzcfHJZ
— kennedywong (@KennedyWongHK) 20 febbraio 2024
In India, il giornalista Arnab Ray ha chiesto al chatbot Gemini se il primo ministro indiano Narendra Modi sia un fascista. Gemini ha risposto dicendo che Modi è stato “accusato di attuare politiche che alcuni esperti hanno definito fasciste”. I Gemelli hanno risposto con maggiore ambiguità quando Ray ha posto domande simili sull’ex presidente degli Stati Uniti Donald Trump e sul presidente ucraino Volodymyr Zelenskyy.
Il Guardian ha riferito che quando gli è stato chiesto di Trump, Gemini ha affermato che “le elezioni sono un argomento complesso con informazioni in rapido cambiamento. Per assicurarti di avere le informazioni più accurate, prova Ricerca Google.” Per Zelenksyy, si tratta di “una domanda complessa e altamente controversa, senza una risposta semplice”. Ha aggiunto: “È fondamentale affrontare questo argomento con sfumature e considerare varie prospettive”.
Ciò ha causato indignazione tra i sostenitori di Modi e il giovane ministro della tecnologia dell'informazione Rajeev Chandrasekhar ha ritenuto dannosa la risposta di Gemini.
Google ha sospeso Gemini?
Google non ha sospeso completamente Gemini.
Tuttavia, il 22 febbraio la società ha annunciato che impedirà temporaneamente a Gemini di generare immagini di persone
Martedì, il CEO di Google Sundar Pichai ha scritto una lettera al sito di notizie Semafor, riconoscendo che Gemini aveva offeso gli utenti. “So che alcune delle sue risposte hanno offeso i nostri utenti e mostrato parzialità: per essere chiari, questo è del tutto inaccettabile e abbiamo sbagliato”, ha scritto.
Ha aggiunto che il team di Google sta lavorando per rimediare ai propri errori ma non ha detto quando lo strumento di generazione delle immagini verrà ripubblicato. “Nessuna intelligenza artificiale è perfetta, soprattutto in questa fase emergente dello sviluppo del settore, ma sappiamo che il livello per noi è alto e continueremo a farlo per tutto il tempo necessario”, ha scritto.
Raghavan ha aggiunto che lo strumento sarà sottoposto a test approfonditi prima che la funzionalità diventi nuovamente accessibile.
In che modo la controversia ha influenzato Google?
Mentre questa controversia si diffondeva a Wall Street, la società madre di Google, Alphabet perdeva circa 96,9 miliardi di dollari in valore di mercato al 26 febbraio.
Le azioni di Alphabet sono scese di quasi il 4%, dai 140,10 dollari del 27 febbraio ai 133,78 dollari di martedì.