2

Il Garante per la Privacy avverte: utilizzare l’IA per interpretare i referti medici è rischioso e poco attendibile

Molti utenti condividono i propri referti medici per ottenere diagnosi o suggerimenti per eventuali terapie. Il Garante per la Privacy mette in guardia sui possibili rischi legati alla condivisione dei dati sanitari.

NOTIZIA di Stefania Netti   —   02/08/2025
ChatGPT per diagnosi (immagine indicativa)

Sempre più utenti utilizzano strumenti come ChatGPT per ottenere diagnosi, interpretazioni di referti medici e consigli su eventuali terapie. Il Garante per la Privacy lancia un allarme legato all'uso smodato di questi chatbot, evidenziando in particolare due rischi: la condivisione di dati estremamente sensibili e l'affidamento a consigli o diagnosi potenzialmente sbagliati e pericolosi.

L’intelligenza artificiale come medico

Molti utenti iniziano a condividere i propri referti medici per ottenere diagnosi o suggerimenti. Secondo il Garante, tuttavia, si tratta di un'azione molto pericolosa, dato che i documenti condivisi potrebbero essere utilizzati per l'addestramento dell'IA. Proprio per questo motivo suggerisce di valutare attentamente le informative sulla privacy condivise dalle piattaforme.

"L'Autorità richiama quindi l'attenzione sull'importanza, riconosciuta sia dal Regolamento europeo sull'IA sia dal Consiglio Superiore di Sanità, di garantire sempre un'intermediazione umana qualificata nell'elaborazione dei dati sanitari tramite sistemi di IA", si legge dal documento ufficiale (trovate la fonte in calce).

OpenAI rimuove una funzione di ChatGPT che rendeva pubbliche conversazioni sensibili OpenAI rimuove una funzione di ChatGPT che rendeva pubbliche conversazioni sensibili

"L'intervento umano è essenziale per prevenire rischi che potrebbero incidere direttamente sulla salute della persona (cfr. art. 14 Regolamento IA e parere 'I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica', Consiglio Superiore di Sanità, Sez. V, 9 novembre 2021)".

L’IA sostituisce i professionisti?

Risposte immediate, semplici, spesso efficaci e soprattutto gratis: sono queste le motivazioni che spingono gli utenti ad affidarsi ai chatbot, come potete leggere dal nostro speciale. Anche uno studio condotto dai ricercatori della Stanford University mette in guardia dai rischi legati all'uso di chatbot a scopo terapeutico. Anche l'ambito psicologico gioca infatti un ruolo cruciale e sempre più utenti considerano l'IA efficace quanto uno psicologo, quest'ultimo troppo dispendioso a detta di alcuni utenti che hanno commentato un nostro recente articolo in merito.

ChatGPT come psicologo, Altman avverte: in questo caso non c'è il segreto professionale ChatGPT come psicologo, Altman avverte: in questo caso non c’è il segreto professionale

Oltre ai rischi legati alla riservatezza legale, però, è importante anche mantenere la lucidità che ci permetta di prendere con le pinze qualsiasi tipo di informazione, senza quindi affidarci totalmente ad essa. Se da un lato alcuni semplici consigli possono essere estremamente utili, oltre che immediati e a costo zero, dall'altro possono rappresentare un grosso pericolo per i più vulnerabili, che potrebbero affidarsi a informazioni potenzialmente sbagliate e pericolose.

Sempre più utenti usano ChatGPT
Sempre più utenti usano ChatGPT

In questo caso quindi è fondamentale sfruttare gli aspetti positivi del chatbot, ma con il giusto equilibrio e soprattutto cercando di prestare la massima attenzione ai potenziali rischi. E voi che ne pensate? Fatecelo sapere nei commenti qui sotto.