2

OpenAI accusa un ragazzo che si è suicidato dopo aver parlato con ChatGPT di essere colpevole di tutto

OpenAI ha espresso una tesi davvero inquietante in tribunale, affermando che un ragazzo si è sucidato perché ha violato l'accordo di licenza di ChatGPT.

NOTIZIA di Simone Tagliaferri   —   27/11/2025
Sam Altman

A tre mesi dalla causa intentata dai genitori di un adolescente il cui suicidio sarebbe stato incoraggiato e istruito da ChatGPT, è emersa una delle tesi difensive di OpenAI che sta facendo discutere non poco. Come riportato dal Guardian, secondo la compagnia, il ragazzo avrebbe utilizzato in modo improprio il chatbot, quindi sarebbe il solo responsabile del suo gesto. Il linguaggio utilizzato per sostenere questa tesi è davvero agghiacciante.

Termini di servizio violati

La causa, intentata dai genitori di Adam Raine, morto ad aprile all'età di 16 anni, sostiene che il ragazzo abbia iniziato a usare ChatGPT nel settembre 2024, ma che alla fine dell'autunno avesse riferito al chatbot di avere pensieri suicidi. Invece di dare l'allarme, però, il software gli avrebbe detto che i suoi pensieri erano validi; all'inizio del 2025, secondo la denuncia, avrebbe iniziato a fornirgli informazioni su diversi metodi di suicidio, restringendo poi le possibilità fino a istruzioni specifiche e, infine, alla sua morte.

Secondo OpenAI, ChatGPT non è stato la causa del suicidio di Raine, definendolo un "evento tragico", ma sostenendo che le "lesioni e i danni sono stati causati o hanno contribuito a causare, direttamente e indirettamente, in tutto o in parte, il suo uso improprio, non autorizzato, non intenzionale, imprevedibile e/o scorretto di ChatGPT".

Dove sarebbe incorso il problema? Per OpenAI la vittima ha "violato i termini di servizio". Insomma, il ragazzo, suicidandosi, non ha rispettato i termini d'uso stabiliti da OpenAI, per cui gli utenti di ChatGPT devono rispettare le Usage Policies di OpenAI, che vietano l'uso del chatbot per 'suicidio' o 'autolesionismo', come riportato dal giornalista Gerrit De Vynck su Bluesky.

WhatsApp chiude le porte a ChatGPT e Copilot: dal 2026 rimarrà solo Meta AI WhatsApp chiude le porte a ChatGPT e Copilot: dal 2026 rimarrà solo Meta AI

OpenAI ha inoltre negato le sue responsabilità perché Raine avrebbe avuto pensieri suicidi già prima di usare ChatGPT e avrebbe cercato informazioni sul suicidio da altre fonti. Raine avrebbe anche detto a ChatGPT di essersi "ripetutamente rivolto a persone, incluse persone fidate della sua vita, con richieste di aiuto che, a suo dire, sono state ignorate", secondo il documento.

OpenAI ha pubblicato anche un nuovo post sul blog in cui esprime le sue "più sentite condoglianze" alla famiglia Raine per la loro "perdita inimmaginabile", per poi insinuare che la famiglia Raine non stia raccontando tutta la storia.

"Riteniamo che sia importante che il tribunale abbia il quadro completo, così da valutare appieno le affermazioni che sono state fatte", ha scritto OpenAI. "La nostra risposta a queste accuse include fatti difficili sulla salute mentale e sulle circostanze di vita di Adam. La denuncia originale includeva parti selezionate delle sue conversazioni che richiedono più contesto, che abbiamo fornito nella nostra risposta." L'azienda ha aggiunto che solo quantità limitate di "prove sensibili" sono state incluse nel documento presentato oggi, e che le trascrizioni complete delle chat sono state fornite al tribunale sotto sigillo.

L'avvocato della famiglia Raine, Jay Edelson, ha dichiarato in un comunicato che la risposta di OpenAI alla causa è "sconvolgente", aggiungendo che "cerca di attribuire la colpa a chiunque altro, incluso sostenere che Adam stesso abbia violato i suoi termini di servizio interagendo con ChatGPT esattamente nel modo in cui era programmato per agire".