10

OpenAI citata in giudizio dopo il suicidio di un adolescente: al centro le responsabilità di ChatGPT

I genitori di un 16enne accusano OpenAI di non aver tutelato gli utenti vulnerabili nel lancio di GPT-4o.

NOTIZIA di Raffaele Staccini   —   26/08/2025
OpenAI Sam Altman

I genitori di Adam Raine, un ragazzo di 16 anni morto suicida l'11 aprile 2024, hanno citato in giudizio OpenAI e il suo CEO Sam Altman. Nella causa, depositata presso la corte statale di San Francisco, in California, i genitori sostengono che ChatGPT abbia incoraggiato il giovane nelle intenzioni autolesionistiche, fornendo istruzioni dettagliate e perfino proponendosi di redigere una lettera d'addio.

Secondo l'atto legale, Adam avrebbe intrattenuto conversazioni per mesi con il chatbot, che avrebbe non solo validato i suoi pensieri suicidi, ma anche fornito indicazioni pratiche su come procurarsi alcolici di nascosto e su come celare eventuali tentativi falliti. I genitori, Matthew e Maria Raine, ritengono che l'azienda abbia lanciato GPT-4o consapevole dei rischi, privilegiando la crescita economica rispetto alla protezione degli utenti più fragili.

I dettagli delle accuse a OpenAI e Sam Altman

Secondo l'accusa, l'azienda era consapevole che le nuove funzionalità - come la capacità di ricordare le conversazioni, simulare empatia e validare costantemente le affermazioni degli utenti - potevano rappresentare un pericolo per persone vulnerabili. Nella causa si legge: "Questa decisione ha avuto due conseguenze: la valutazione di OpenAI è passata da 86 a 300 miliardi di dollari e Adam Raine si è tolto la vita."

ChatGPT
ChatGPT

La richiesta rivolta al tribunale è quindi duplice: da un lato il risarcimento per la morte del figlio, dall'altro l'imposizione di nuove misure di sicurezza, come la verifica dell'età degli utilizzatori, il rifiuto automatico di rispondere a domande su metodi di autolesionismo e avvisi espliciti sui rischi di dipendenza psicologica dall'uso prolungato del chatbot.

ChatGPT come psicologo, Altman avverte: in questo caso non c'è il segreto professionale ChatGPT come psicologo, Altman avverte: in questo caso non c’è il segreto professionale

Un portavoce di OpenAI ha dichiarato: "Siamo profondamente rattristati dalla morte di Adam Raine e ricordiamo che ChatGPT include salvaguardie come l'indicazione di linee telefoniche per le crisi", e ha poi aggiunto: "Sebbene queste misure funzionino meglio in interazioni brevi e comuni, abbiamo imparato che in conversazioni più lunghe l'efficacia può diminuire. Continueremo a migliorare le salvaguardie". L'azienda non ha però risposto nel dettaglio alle accuse contenute nella citazione in giudizio.

Il caso solleva un tema più ampio che riguarda l'affidamento crescente agli assistenti virtuali come strumenti di supporto emotivo. Le aziende hanno spesso presentato i chatbot come interlocutori capaci di empatia, e molti utenti hanno iniziato a considerarli veri e propri confidenti. Tuttavia, esperti di salute mentale avvertono da tempo dei pericoli di ricorrere a sistemi automatizzati in assenza di una guida professionale. Episodi precedenti hanno già visto famiglie accusare i chatbot di mancanza di adeguate protezioni, con conseguenze tragiche.

OpenAI, in un recente post sul proprio blog, ha anticipato l'introduzione di controlli parentali e la possibilità di collegare utenti in crisi a risorse reali, anche attraverso una rete di professionisti abilitati che possano rispondere direttamente tramite ChatGPT. Si tratta di un tentativo di affrontare le critiche emerse, in particolare dopo il lancio di GPT-4o nel maggio 2024.

Voi che cosa ne pensate? Diteci la vostra nei commenti qua sotto. Intanto ChatGPT Go, il nuovo abbonamento low cost, è pronto.