"Non dire mai addio": l'intelligenza artificiale può riportare in vita i morti?

Daniele Bianchi

“Non dire mai addio”: l’intelligenza artificiale può riportare in vita i morti?

In un mondo in cui l’intelligenza artificiale può resuscitare i morti, il dolore assume una nuova dimensione.

Dall’uso da parte del cantante canadese Drake della voce di Tupac Shakur generata dall’intelligenza artificiale ai politici indiani che si rivolgono alla folla anni dopo la loro scomparsa, la tecnologia sta confondendo i confini tra la vita e la morte.

Ma al di là della loro straordinaria attrazione per l’intrattenimento e la politica, gli “zombi” dell’intelligenza artificiale potrebbero presto diventare una realtà per le persone sconvolte dalla perdita di persone care, attraverso una serie di iniziative rivoluzionarie, ma potenzialmente controverse.

Quindi, come funzionano le “resurrezioni” dell’intelligenza artificiale? Sono davvero così distopiche come potremmo immaginare?

Cosa sono le “resurrezioni” delle persone grazie all’intelligenza artificiale?

Negli ultimi anni, progetti di intelligenza artificiale in tutto il mondo hanno creato “resurrezioni” digitali di individui defunti, consentendo ad amici e parenti di conversare con loro.

In genere, gli utenti forniscono allo strumento AI informazioni sul defunto. Ciò potrebbe includere messaggi di testo ed e-mail o semplicemente risposte a domande basate sulla personalità.

Lo strumento AI elabora quindi quei dati per parlare all’utente come se fosse il defunto. Uno dei progetti più popolari in questo ambito è Replika, un chatbot in grado di imitare gli stili di messaggistica delle persone.

Tuttavia, altre aziende ora consentono anche di vedere un video della persona deceduta mentre si parla con lei.

Ad esempio, StoryFile, con sede a Los Angeles, utilizza l’intelligenza artificiale per consentire alle persone di parlare ai propri funerali. Prima di morire, una persona può registrare un video in cui condivide la propria storia di vita e i propri pensieri. Durante il funerale, i partecipanti possono fare domande e la tecnologia AI selezionerà le risposte pertinenti dal video preregistrato.

A giugno, anche Eternos, con sede negli Stati Uniti, ha fatto notizia per aver creato un aldilà digitale di una persona basato sull’intelligenza artificiale. Avviato appena all’inizio di quest’anno, questo progetto ha permesso all’83enne Michael Bommer di lasciare una versione digitale di sé stesso con cui la sua famiglia poteva continuare a interagire.

Questi progetti aiutano le persone?

Quando una madre sudcoreana si è riunita a una ricostruzione artificiale della figlia morta nella realtà virtuale, un video dell’incontro emozionante nel 2020 ha scatenato un acceso dibattito online sul fatto che tale tecnologia aiuti o danneggi i suoi utenti.

Gli sviluppatori di tali progetti sottolineano l’iniziativa degli utenti e affermano che ciò risolve una sofferenza più profonda.

Jason Rohrer, fondatore di Project December, che utilizza anche l’intelligenza artificiale per stimolare conversazioni con i defunti, ha affermato che la maggior parte degli utenti in genere sta attraversando un “livello insolito di trauma e dolore” e vede lo strumento come un modo per aiutarli a superare la situazione.

“Molte di queste persone che vogliono utilizzare il Progetto Dicembre in questo modo sono disposte a provare qualsiasi cosa perché il loro dolore è così insormontabile e così doloroso per loro”.

Il progetto consente agli utenti di chattare con ricreazioni AI di personaggi pubblici noti e anche con individui che gli utenti potrebbero conoscere personalmente.

Le persone che scelgono di usare il servizio per stimolare una conversazione con i defunti spesso scoprono che li aiuta a trovare una conclusione, ha detto Rohrer. I bot consentono loro di esprimere parole rimaste non dette ai propri cari che sono morti inaspettatamente, ha aggiunto.

Il fondatore di Eternos, Robert LoCasio, ha affermato di aver creato l’azienda per catturare le storie di vita delle persone e consentire ai loro cari di andare avanti.

Bommer, il suo ex collega scomparso a giugno, voleva lasciare un’eredità digitale esclusivamente alla sua famiglia, ha affermato LoCasio.

“Ho parlato con [Bommer] pochi giorni prima di morire e disse, ricordate, questo era per me. Non so se lo useranno in futuro, ma questo era importante per me”, ha detto LoCasio.

Quali sono le insidie ​​di questa tecnologia?

Alcuni esperti e osservatori sono più cauti nei confronti delle resurrezioni dell’intelligenza artificiale, si chiedono se le persone profondamente addolorate possano davvero prendere la decisione consapevole di utilizzarla e mettono in guardia sui suoi effetti psicologici negativi.

“La mia preoccupazione più grande come medico è che il lutto è in realtà molto importante. È una parte importante dello sviluppo che ci consente di riconoscere la mancanza di un’altra persona”, ha affermato Alessandra Lemma, consulente presso l’Anna Freud National Centre for Children and Families.

L’uso prolungato potrebbe impedire alle persone di accettare l’assenza dell’altra persona, lasciandole in uno stato di “limbo”, ha avvertito Lemma.

In effetti, un servizio di intelligenza artificiale ha pubblicizzato come caratteristica fondamentale la connessione perpetua con la persona deceduta.

“Benvenuti a YOV (You, Only Virtual), la startup di intelligenza artificiale pioniera nelle comunicazioni digitali avanzate, così che non dovremo mai dire addio a coloro che amiamo”, si leggeva sul sito web dell’azienda, prima del suo recente aggiornamento.

Rohrer ha affermato che il suo bot per il dolore ha un fattore limitante “incorporato”: gli utenti pagano 10 dollari per una conversazione limitata.

La tariffa consente di acquistare tempo su un supercomputer, con ogni risposta che varia in termini di costo computazionale. Ciò significa che 10 $ non garantiscono un numero fisso di risposte, ma possono consentire una o due ore di conversazione. Quando il tempo sta per scadere, gli utenti ricevono una notifica e possono dire i loro saluti finali.

Anche molti altri servizi conversazionali basati sull’intelligenza artificiale prevedono il pagamento di una tariffa per l’utilizzo.

Lemma, che ha studiato l’impatto psicologico dei bot per l’elaborazione del dolore, afferma che, pur preoccupandosi delle prospettive di un loro utilizzo al di fuori di un contesto terapeutico, potrebbero essere utilizzati in tutta sicurezza come complemento alla terapia con un professionista qualificato.

Studi in tutto il mondo stanno inoltre osservando il potenziale dell’intelligenza artificiale nel fornire consulenza sulla salute mentale, in particolare attraverso strumenti di conversazione personalizzati.

Questi servizi potrebbero sembrare usciti direttamente da un episodio di Black Mirror.

Ma i sostenitori di questa tecnologia sostengono che l’era digitale sta semplicemente inaugurando nuovi modi di preservare le storie di vita e potenzialmente colmare un vuoto lasciato dall’erosione delle tradizionali pratiche di narrazione familiare.

“Ai vecchi tempi, se un genitore sapeva che stava morendo, lasciava scatole piene di cose che avrebbe voluto passare a un figlio o un libro”, ha detto Lemma. “Quindi, questa potrebbe essere la versione del 21° secolo di ciò, che viene poi trasmesso e creato dai genitori in previsione della loro scomparsa”.

LoCasio di Eternos è d’accordo.

“La capacità di un essere umano di raccontare le storie della propria vita e di trasmetterle ai propri amici e familiari è in realtà la cosa più naturale”, ha affermato.

I servizi di resurrezione basati sull’intelligenza artificiale sono sicuri e privati?

Sia gli esperti che gli studi hanno espresso preoccupazione per il fatto che tali servizi potrebbero non riuscire a mantenere la riservatezza dei dati.

Le informazioni o i dati personali, come i messaggi di testo condivisi con questi servizi, potrebbero essere potenzialmente accessibili a terzi.

Anche se un’azienda afferma che manterrà riservati i dati quando qualcuno si registra per la prima volta, le comuni revisioni dei termini e delle condizioni, nonché possibili cambiamenti nella proprietà aziendale, fanno sì che la privacy non possa essere garantita, ha ammonito Renee Richardson Gosline, docente presso la MIT Sloan School of Management.

Sia Rohrer che LoCasio hanno insistito sul fatto che la privacy era al centro dei loro progetti. Rohrer può visualizzare le conversazioni solo quando gli utenti inoltrano una richiesta di assistenza clienti, mentre Eternos di LoCasio limita l’accesso all’eredità digitale ai parenti autorizzati.

Tuttavia, entrambi hanno convenuto che tali preoccupazioni potrebbero manifestarsi potenzialmente nel caso di giganti della tecnologia o di aziende a scopo di lucro.

Una delle maggiori preoccupazioni è che le aziende possano utilizzare le resurrezioni dell’intelligenza artificiale per personalizzare il modo in cui si promuovono verso gli utenti.

Una pubblicità con la voce di una persona cara, un suggerimento per un prodotto nel suo testo.

“Quando lo fai con persone vulnerabili, ciò che hai creato è una pseudo-approvazione basata su qualcuno che non ha mai accettato di fare una cosa del genere. Quindi è davvero un problema per quanto riguarda l’agenzia e l’asimmetria di potere”, ha detto Gosline.

Ci sono altre preoccupazioni sui chatbot AI?

Il fatto che questi strumenti siano fondamentalmente rivolti a un mercato di persone che affrontano il lutto li rende di per sé rischiosi, ha suggerito Gosline, soprattutto quando entrano in gioco le grandi aziende tecnologiche.

“In una cultura di aziende tecnologiche che viene spesso descritta come ‘muoversi velocemente e rompere le cose’, dovremmo preoccuparci perché ciò che di solito si rompe per primo sono le cose delle persone vulnerabili”, ha affermato Gosline. “E mi riesce difficile pensare a persone più vulnerabili di quelle che sono in lutto”.

Gli esperti hanno espresso preoccupazioni circa l’etica della creazione di una resurrezione digitale dei morti, in particolare nei casi in cui gli utenti non hanno dato il loro consenso e forniscono i dati all’intelligenza artificiale.

Anche l’impatto ambientale degli strumenti basati sull’intelligenza artificiale e dei chatbot è una preoccupazione crescente, in particolare quando si tratta di grandi modelli linguistici (LLM), sistemi addestrati a comprendere e generare testi simili a quelli umani, che alimentano applicazioni come i chatbot.

Questi sistemi necessitano di enormi data center che emettono alti livelli di carbonio e utilizzano grandi volumi di acqua per il raffreddamento, oltre a creare rifiuti elettronici a causa dei frequenti aggiornamenti hardware.

Un rapporto di Google di inizio luglio ha mostrato che l’azienda era molto lontana dai suoi ambiziosi obiettivi di zero emissioni nette, a causa della domanda che l’intelligenza artificiale stava ponendo sui suoi data center.

Gosline ha detto di aver capito che non esiste un programma perfetto e che molti utenti di tali chatbot AI farebbero qualsiasi cosa per riconnettersi con una persona cara defunta. Ma spetta ai leader e agli scienziati essere più attenti al tipo di mondo che vogliono creare, ha detto.

Fondamentalmente, ha detto, devono porsi una domanda: “Ne abbiamo bisogno?”

Daniele Bianchi

Daniele Bianchi, nativo di Roma, è il creatore del noto sito di informazione Oltre la Linea. Appassionato di giornalismo e di eventi mondiali, nel 2010 Daniele ha dato vita a questo progetto direttamente da una piccola stanza del suo appartamento con lo scopo di creare uno spazio dedicato alla libera espressione di idee e riflessioni. La sua mission era semplice e diretta: cercare di capire e far comprendere agli altri ciò che sta effettivamente succedendo nel mondo. Oltre alla sua attività di giornalista e scrittore, Daniele investe costantemente nell'arricchimento della sua squadra, coinvolgendo professionisti con le stesse passioni e interessi.