All'inizio di gennaio un'inchiesta di The Guardian ha acceso i riflettori su un problema serio: gli AI Overview di Google stavano fornendo risposte errate, e in alcuni casi opposte alle reali indicazioni mediche, su temi estremamente delicati. Parliamo di suggerimenti alimentari per pazienti oncologici o interpretazioni sbagliate di esami del sangue, informazioni che - secondo gli esperti - potevano avere conseguenze gravi sulla salute delle persone.
Risposte giudicate “pericolose” dagli esperti
In uno dei casi più citati, l'IA consigliava ai pazienti con tumore al pancreas di evitare cibi ricchi di grassi, un'indicazione che gli specialisti hanno definito non solo sbagliata, ma potenzialmente letale. In un altro esempio, le spiegazioni sui test di funzionalità epatica risultavano imprecise al punto da poter indurre chi soffre di malattie gravi a credere, erroneamente, di essere in buona salute.
Nelle ultime ore, chi prova a effettuare ricerche come "qual è il range normale degli esami del fegato" nota che gli AI Overview non vengono più mostrati. Google non ha commentato direttamente la rimozione di questi risultati, limitandosi a un silenzio che lascia intendere una correzione urgente piuttosto che una semplice sperimentazione.
Un altro scivolone per gli AI Overview
Questa non è la prima volta che la funzione finisce al centro delle critiche. In passato, gli AI Overview sono diventati virali per suggerimenti assurdi o palesemente falsi, dall'uso della colla sugli alimenti a consigli alimentari privi di qualsiasi fondamento scientifico. Episodi che hanno già portato a cause legali e richieste di maggiore responsabilità nell'uso dell'intelligenza artificiale.
Se l'obiettivo di Google è integrare l'AI come supporto informativo, casi come questo evidenziano la necessità di controlli molto più rigidi.