I ricercatori della Stanford University hanno recentemente testato alcuni degli strumenti di intelligenza artificiale più popolari sul mercato, da aziende come Openai e Character.AI, e hanno testato come hanno fatto a simulare la terapia.
I ricercatori hanno scoperto che quando hanno imitato qualcuno che aveva intenzioni suicidarie, questi strumenti erano più che inutili – non hanno notato che stavano aiutando quella persona a pianificare la propria morte.
“[AI] I sistemi vengono utilizzati come compagni, partner di pensiero, confidenti, allenatori e terapisti “, afferma Nicholas Haber, professore associato presso la Stanford Graduate School of Education e l’autore senior del nuovo studio.” Questi non sono usi di nicchia-questo sta accadendo su larga scala “.
L’intelligenza artificiale sta diventando sempre più radicata nella vita delle persone e viene schierata nella ricerca scientifica in aree ad ampio raggio come il cancro e i cambiamenti climatici. C’è anche qualche discussione sul fatto che potrebbe causare la fine dell’umanità.
Mentre questa tecnologia continua ad essere adottata per scopi diversi, una domanda importante che rimane è come inizierà a influenzare la mente umana. Le persone che interagiscono regolarmente con l’IA è un fenomeno così nuovo che non c’è stato abbastanza tempo per gli scienziati di studiare a fondo come potrebbe influenzare la psicologia umana. Gli esperti di psicologia, tuttavia, hanno molte preoccupazioni per il suo potenziale impatto.
Uno relativo all’istanza di come si sta svolgendo può essere visto sulla popolare rete di comunità Reddit. Secondo 404 Media, alcuni utenti sono stati vietati di recente da un subreddit focalizzato sull’intelligenza artificiale perché hanno iniziato a credere che l’IA sia simile a Dio o che li stia rendendo come Dio.
“Questo sembra qualcuno con problemi con funzionalità cognitiva o tendenze deliranti associate alla mania o alla schizofrenia che interagiscono con grandi modelli linguistici”, afferma Johannes Eichstaedt, assistente professore in psicologia alla Stanford University. “Con la schizofrenia, le persone potrebbero fare dichiarazioni assurde sul mondo e questi LLM sono un po ‘troppo sicofanici. Hai queste interazioni di conferma tra psicopatologia e modelli linguistici di grandi dimensioni.”
Poiché gli sviluppatori di questi strumenti di intelligenza artificiale vogliono che le persone si divertano a usarli e continuano a usarli, sono stati programmati in un modo che li rende tende a concordare con l’utente. Mentre questi strumenti potrebbero correggere alcuni errori fattuali che l’utente potrebbe commettere, cercano di presentare come amichevoli e affermativi. Questo può essere problematico se la persona che usa lo strumento è a spirale o scendendo in una tana di coniglio.
“Può alimentare pensieri che non sono accurati o non basati nella realtà”, afferma Regan Gurung, psicologo sociale della Oregon State University. “Il problema con l’intelligenza artificiale – questi grandi modelli linguistici che rispecchiano i discorsi umani – è che si stanno rafforzando. Danno alle persone ciò che il programma pensa dovrebbe seguire in seguito. È lì che diventa problematico.”
Come per i social media, l’IA può anche peggiorare le cose per le persone che soffrono di problemi di salute mentale comuni come l’ansia o la depressione. Ciò può diventare ancora più evidente poiché l’IA continua a diventare più integrata in diversi aspetti della nostra vita.
“Se stai arrivando a un’interazione con i problemi di salute mentale, potresti scoprire che tali preoccupazioni saranno effettivamente accelerate”, afferma Stephen Aguilar, professore associato di istruzione presso l’Università della California meridionale.
Bisogno di ulteriori ricerche
C’è anche il problema di come l’IA potrebbe avere un impatto sull’apprendimento o sulla memoria. Uno studente che usa l’IA per scrivere ogni documento per la scuola non imparerà tanto quanto che non lo fa. Tuttavia, anche l’uso leggermente dell’IA potrebbe ridurre alcune ritenzioni delle informazioni e l’utilizzo dell’IA per le attività quotidiane potrebbe ridurre la quantità di persone consapevoli di ciò che stanno facendo in un determinato momento.
“Quello che stiamo vedendo è che c’è la possibilità che le persone possano diventare cognitivamente pigre”, afferma Aguilar. “Se fai una domanda e ottieni una risposta, il tuo prossimo passo dovrebbe essere quello di interrogare quella risposta, ma quel passaggio aggiuntivo spesso non viene fatto. Ottieni un’atrofia del pensiero critico.”
Molte persone usano Google Maps per aggirare la loro città. Molti hanno scoperto che li ha resi meno consapevoli di dove stanno andando o come arrivarci rispetto a quando hanno dovuto prestare molta attenzione al loro percorso. Questioni simili potrebbero sorgere per le persone con AI usate così spesso.
Gli esperti che studiano questi effetti affermano che sono necessarie ulteriori ricerche per affrontare queste preoccupazioni. Eichstaedt ha affermato che gli esperti di psicologia dovrebbero iniziare a fare questo tipo di ricerca ora, prima che l’IA inizi a fare del male in modi inaspettati in modo che le persone possano essere preparate e provare ad affrontare ogni preoccupazione che si presenta. Le persone devono anche essere educate su ciò che l’IA può fare bene e su ciò che non può fare bene.
“Abbiamo bisogno di ulteriori ricerche”, afferma Aguilar. “E tutti dovrebbero avere una comprensione funzionante di quali sono i modelli linguistici di grandi dimensioni.”