8

ChatGPT complice di una sparatoria di massa? OpenAI finisce sotto indagine penale in Florida

OpenAI e ChatGPT sono di nuovo al centro delle polemiche, per l'iauto dato dal chat bot all'autore di una strage.

NOTIZIA di Simone Tagliaferri   —   23/04/2026
Una pistola

L'intelligenza artificiale finisce sul banco degli imputati in quello che potrebbe diventare un caso giurisprudenziale storico. OpenAI è attualmente oggetto di un'indagine penale in Florida: l'accusa è che ChatGPT avrebbe fornito consigli a un assassino prima di una sparatoria di massa avvenuta lo scorso anno alla Florida State University, costata la vita a due persone e il ferimento di altre sei.

Consigli per una strage

Il procuratore generale della Florida, James Uthmeier, ha confermato l'apertura dell'inchiesta dopo aver esaminato gli scioccanti registri delle chat tra l'IA e un account collegato al presunto attentatore, il ventenne Phoenix Ikner, attualmente in attesa di giudizio per omicidio e tentato omicidio.

Il logo di ChatGPT
Il logo di ChatGPT

Durante una conferenza stampa, Uthmeier ha rivelato che ChatGPT ha fornito "consigli importanti" prima che Ikner "commettesse crimini così efferati". Il procuratore ha usato parole durissime, sottolineando che, in base alle leggi della Florida sul favoreggiamento, "se ChatGPT fosse una persona, affronterebbe l'accusa di omicidio".

Un gioco creato con ChatGPT è finito su Playdate, ma la compagnia bloccherà ogni titolo IA Un gioco creato con ChatGPT è finito su Playdate, ma la compagnia bloccherà ogni titolo IA

"La Florida è all'avanguardia nel reprimere l'uso dell'IA in comportamenti criminali", ha dichiarato Uthmeier in un comunicato. "Questa indagine penale determinerà se OpenAI abbia responsabilità penali per le azioni di ChatGPT nella sparatoria alla Florida State University dello scorso anno".

Secondo quanto riferito alla stampa, l'IA avrebbe consigliato al presunto killer il tipo di arma da usare, le munizioni da acquistare e l'efficacia di una pistola a corto raggio. Ma il dettaglio più inquietante riguarda la pianificazione logistica: il chatbot avrebbe suggerito a che ora del giorno ci sarebbero state più persone nel campus e in quali aree specifiche si sarebbero concentrati più studenti, a dimostrazione di come l'IA sia in grado di combinare istantaneamente dati pubblici in modi del tutto nuovi e potenzialmente devastanti.

Uthmeier ha ammesso che le forze dell'ordine si stanno "avventurando in un territorio inesplorato". Pur sapendo che un software non può essere incriminato, il procuratore vuole capire se la dirigenza di OpenAI possa essere ritenuta responsabile per non essere intervenuta pur sapendo dei rischi. Per questo ha emesso mandati di comparizione per ottenere documenti interni, politiche aziendali e organigrammi per scoprire "chi sapeva cosa, ha progettato cosa, o avrebbe dovuto sapere cosa" stesse accadendo.

"Sono un grande sostenitore del governo limitato", ha aggiunto Uthmeier. "Credo che il governo dovrebbe interferire nelle attività commerciali solo quando c'è un danno significativo per il nostro popolo. Questo è il caso".

L'azienda, dal canto suo, si aspetta di uscire pulita dall'indagine. Kate Waters, portavoce di OpenAI, ha spiegato che la società sta collaborando attivamente e che, fin dall'inizio, ha "identificato un account ChatGPT ritenuto associato al sospettato e ha condiviso in modo proattivo queste informazioni con le forze dell'ordine". La linea difensiva di OpenAI è chiara: il chatbot non ha istigato al crimine, ma si è limitato a riassumere informazioni già ampiamente disponibili in rete.

"La sparatoria di massa dell'anno scorso alla Florida State University è stata una tragedia, ma ChatGPT non è responsabile di questo terribile crimine", ha dichiarato Waters. "In questo caso, ChatGPT ha fornito risposte fattuali a domande con informazioni che potevano essere trovate ampiamente attraverso fonti pubbliche su Internet, e non ha incoraggiato o promosso attività illegali o dannose".

Waters ha inoltre difeso la natura del software: "ChatGPT è uno strumento di uso generale utilizzato da centinaia di milioni di persone ogni giorno per scopi legittimi. Lavoriamo continuamente per rafforzare le nostre misure di sicurezza per rilevare intenti dannosi, limitare gli abusi e rispondere in modo appropriato quando sorgono rischi per la sicurezza".

Tuttavia, secondo il procuratore Uthmeier, OpenAI si sarebbe già impegnata a fare di più in futuro. "Ora OpenAI ha indicato di ritenere che debbano essere apportati miglioramenti e cambiamenti", ha concluso il procuratore. "Spero che abbiano ragione. Spero che abbiano ragione. Non possiamo avere bot basati sull'IA che consigliano alle persone come uccidere gli altri".