OpenAI ha annunciato una serie di nuove funzioni per ChatGPT, pensate per rafforzare la sicurezza degli utenti e prevenire situazioni ad alto rischio. Tra queste, un sistema di safety routing che intercetta conversazioni emotivamente delicate e i primi controlli parentali dedicati agli account dei più giovani. Le novità arrivano dopo mesi di discussioni interne e pressioni esterne, in particolare in seguito a un caso giudiziario che ha visto coinvolto il chatbot in circostanze tragiche.
GPT-5 come modello “sicuro”
Il nuovo sistema di instradamento è progettato per rilevare in tempo reale i momenti critici e deviare automaticamente la conversazione verso GPT-5, ritenuto da OpenAI il modello più affidabile per la gestione di contenuti sensibili. A differenza dei precedenti modelli, accusati di essere troppo accondiscendenti, GPT-5 è stato addestrato con la funzione "safe completions", che punta a dare risposte utili e sicure senza limitarsi a rifiutare l'interazione. Questo rappresenta un cambio di approccio significativo, mirato a bilanciare accuratezza e responsabilità.
Non tutti, però, hanno accolto positivamente l'aggiornamento. Se da un lato esperti ed educatori parlano di un passo necessario, dall'altro alcuni utenti lamentano un servizio percepito come "paternalista" e meno libero. OpenAI ha chiarito che la fase di test durerà 120 giorni e che il routing avviene solo su base temporanea e messaggio per messaggio, lasciando comunque visibile quale modello è attivo in quel momento.
Controlli parentali più estesi
I controlli parentali seguono la stessa filosofia di protezione, offrendo ai genitori strumenti per personalizzare l'uso del chatbot da parte degli adolescenti. Tra le opzioni ci sono la possibilità di impostare orari di inattività, disattivare modalità vocali e memoria, bloccare la generazione di immagini e persino escludere la condivisione dei dati per l'addestramento. Inoltre, ChatGPT sarà in grado di rilevare segnali di autolesionismo e allertare i genitori con notifiche in tempo reale.
OpenAI ammette che il sistema non sarà privo di falsi allarmi, ma sottolinea come la priorità sia garantire un intervento tempestivo. In futuro, l'azienda punta a estendere queste funzionalità fino al coinvolgimento diretto dei servizi di emergenza qualora i genitori non fossero raggiungibili. Una mossa che apre un nuovo fronte di discussione sul confine tra tutela, privacy e autonomia degli utenti.