Pubblicato il 29 aprile 2026
Le famiglie delle vittime di una sparatoria in una scuola in una remota città delle Montagne Rocciose canadesi hanno citato in giudizio la società di intelligenza artificiale OpenAI in un tribunale federale degli Stati Uniti, sostenendo che il produttore di ChatGPT non ha avvisato la polizia delle allarmanti interazioni dell’assassino con il chatbot.
Una causa intentata mercoledì per conto della dodicenne Maya Gebala, gravemente ferita nella sparatoria di febbraio, è tra i primi di oltre due dozzine di casi presentati da famiglie di Tumbler Ridge, nella Columbia Britannica, in quello che secondo i loro avvocati rappresenta “un’intera comunità che si fa avanti per ritenere OpenAI responsabile”.
Storie consigliate
elenco di 4 elementifine dell’elenco
Altre sei cause legali intentate in un tribunale federale di San Francisco sostengono accuse di morte ingiusta per conto di cinque bambini e di un educatore uccisi nella sparatoria di massa più mortale avvenuta in Canada negli ultimi anni.
I casi rappresentano le famiglie dei cinque bambini uccisi presi di mira nella sparatoria a scuola. Questi includono Zoey Benoit, Abel Mwansa Jr, Ticaria “Tiki” Lampert, Kylie Smith, tutti 12, ed Ezekiel Schofield, 13, così come l’assistente educativa Shannda Aviugana-Durand.
Jesse Van Rootselaar, le cui interazioni con ChatGPT sono al centro delle cause legali, ha sparato a sua madre e al fratellastro a casa prima di uccidere un assistente educativo e cinque studenti di età compresa tra 12 e 13 anni nella sua ex scuola il 10 febbraio, secondo la polizia. Van Rootselaar, che aveva 18 anni, morì suicida. Nell’attacco sono rimaste ferite anche venticinque persone.
Un portavoce di OpenAI ha definito la sparatoria “una tragedia” e ha affermato che la società ha una politica di tolleranza zero nei confronti dell’utilizzo dei suoi strumenti per assistere nella commissione di violenze.
“Come abbiamo condiviso con i funzionari canadesi, abbiamo già rafforzato le nostre misure di sicurezza, incluso il miglioramento del modo in cui ChatGPT risponde ai segnali di disagio, mettendo in contatto le persone con il supporto locale e le risorse per la salute mentale, rafforzando il modo in cui valutiamo e intensifichiamo potenziali minacce di violenza e migliorando il rilevamento di ripetuti violatori delle politiche”, ha affermato il portavoce in una nota.
La scorsa settimana il CEO Sam Altman ha inviato una lettera scusandosi formalmente alla comunità per il fatto che la sua azienda non ha informato le forze dell’ordine del comportamento online dell’assassino.
I casi fanno parte di una crescente ondata di cause legali che accusano le società di intelligenza artificiale di non riuscire a prevenire le interazioni dei chatbot che, secondo i querelanti, contribuiscono all’autolesionismo, alla malattia mentale e alla violenza. Sembrano essere i primi negli Stati Uniti a sostenere che ChatGPT abbia avuto un ruolo nel facilitare una sparatoria di massa.
Jay Edelson, che rappresenta i querelanti, ha detto che intende intentare altre due dozzine di azioni legali nelle prossime settimane contro la società per conto di altre persone colpite dalla sparatoria.
Secondo un reclamo, i sistemi automatizzati di OpenAI nel giugno 2025 hanno contrassegnato le conversazioni ChatGPT in cui l’aggressore descriveva scenari di violenza armata.
La sicurezza messa da parte
I membri del team di sicurezza hanno raccomandato di contattare la polizia dopo aver concluso che rappresentava una minaccia credibile e imminente di danno, si legge nella denuncia, citando un articolo del Wall Street Journal di febbraio sulle discussioni interne dell’azienda.
Ma Altman e altri dirigenti di OpenAI hanno avuto la meglio sulla squadra di sicurezza e la polizia non è mai stata chiamata, sostiene la causa. L’account dell’aggressore è stato disattivato, ma lei è riuscita a crearne uno nuovo e continuare a utilizzare la piattaforma per pianificare il suo attacco, afferma l’accusa.
A seguito del rapporto del Wall Street Journal, la società ha affermato che l’account è stato contrassegnato da sistemi che identificano “abusi dei nostri modelli a sostegno di attività violente” ma non soddisfaceva i criteri interni per la segnalazione alle forze dell’ordine.
Le cause legali sostengono che “le vittime non lo hanno appreso perché OpenAI era in arrivo, ma perché i suoi stessi dipendenti lo hanno fatto trapelare al Wall Street Journal dopo che non potevano più sopportare il silenzio dell’azienda”.
In un blog pubblicato martedì, OpenAI ha affermato di addestrare i suoi modelli a rifiutare richieste che potrebbero “consentire significativamente la violenza” e di avvisare le forze dell’ordine quando le conversazioni suggeriscono “un rischio imminente e credibile di danno ad altri”, con esperti di salute mentale che aiutano a valutare i casi limite. La società ha affermato di perfezionare continuamente i propri modelli e metodi di rilevamento in base all’utilizzo e al contributo degli esperti.
Le cause legali chiedono un importo non specificato di danni e un’ordinanza del tribunale che imponga a OpenAI di rivedere le sue pratiche di sicurezza, compresi i protocolli di riferimento obbligatori delle forze dell’ordine. Una delle vittime originariamente aveva intentato causa in un tribunale canadese, ma l’aveva respinta per perseguire cause in California, ha detto Edelson.
Le azioni legali seguono casi simili depositati nei tribunali statali e federali degli Stati Uniti negli ultimi mesi secondo cui ChatGPT avrebbe facilitato comportamenti dannosi, suicidio e, in almeno un caso, un omicidio-suicidio.
Si prevede che i casi, ancora nelle fasi iniziali, testeranno quale ruolo può svolgere una piattaforma di intelligenza artificiale nel promuovere la violenza e se le aziende possono essere ritenute responsabili per le azioni degli utenti. OpenAI ha negato le accuse, sostenendo nel caso di omicidio-suicidio che l’autore aveva una lunga storia di malattie mentali.




