0

OpenAI introduce sistema di safety routing e controlli parentali in ChatGPT

Nuove misure di sicurezza e strumenti per i genitori dividono la community tra chi apprezza la tutela e chi teme un approccio troppo invasivo.

NOTIZIA di Simone Lelli   —   29/09/2025
ChatGPT

OpenAI ha annunciato una serie di nuove funzioni per ChatGPT, pensate per rafforzare la sicurezza degli utenti e prevenire situazioni ad alto rischio. Tra queste, un sistema di safety routing che intercetta conversazioni emotivamente delicate e i primi controlli parentali dedicati agli account dei più giovani. Le novità arrivano dopo mesi di discussioni interne e pressioni esterne, in particolare in seguito a un caso giudiziario che ha visto coinvolto il chatbot in circostanze tragiche.

GPT-5 come modello “sicuro”

Il nuovo sistema di instradamento è progettato per rilevare in tempo reale i momenti critici e deviare automaticamente la conversazione verso GPT-5, ritenuto da OpenAI il modello più affidabile per la gestione di contenuti sensibili. A differenza dei precedenti modelli, accusati di essere troppo accondiscendenti, GPT-5 è stato addestrato con la funzione "safe completions", che punta a dare risposte utili e sicure senza limitarsi a rifiutare l'interazione. Questo rappresenta un cambio di approccio significativo, mirato a bilanciare accuratezza e responsabilità.

Apple mette alla prova la nuova Siri con un'app in stile ChatGPT: dovrebbe semplificare i test interni Apple mette alla prova la nuova Siri con un’app in stile ChatGPT: dovrebbe semplificare i test interni

Non tutti, però, hanno accolto positivamente l'aggiornamento. Se da un lato esperti ed educatori parlano di un passo necessario, dall'altro alcuni utenti lamentano un servizio percepito come "paternalista" e meno libero. OpenAI ha chiarito che la fase di test durerà 120 giorni e che il routing avviene solo su base temporanea e messaggio per messaggio, lasciando comunque visibile quale modello è attivo in quel momento.

Controlli parentali più estesi

I controlli parentali seguono la stessa filosofia di protezione, offrendo ai genitori strumenti per personalizzare l'uso del chatbot da parte degli adolescenti. Tra le opzioni ci sono la possibilità di impostare orari di inattività, disattivare modalità vocali e memoria, bloccare la generazione di immagini e persino escludere la condivisione dei dati per l'addestramento. Inoltre, ChatGPT sarà in grado di rilevare segnali di autolesionismo e allertare i genitori con notifiche in tempo reale.

OpenAI e il parental control
OpenAI e il parental control

OpenAI ammette che il sistema non sarà privo di falsi allarmi, ma sottolinea come la priorità sia garantire un intervento tempestivo. In futuro, l'azienda punta a estendere queste funzionalità fino al coinvolgimento diretto dei servizi di emergenza qualora i genitori non fossero raggiungibili. Una mossa che apre un nuovo fronte di discussione sul confine tra tutela, privacy e autonomia degli utenti.