0

Google rimuove gli AI Overview da alcune ricerche mediche

Dopo segnalazioni di informazioni fuorvianti e potenzialmente pericolose, il colosso di Mountain View fa un passo indietro sull'uso dell'IA in ambito sanitario.

NOTIZIA di Simone Lelli   —   12/01/2026
AI Overview

All'inizio di gennaio un'inchiesta di The Guardian ha acceso i riflettori su un problema serio: gli AI Overview di Google stavano fornendo risposte errate, e in alcuni casi opposte alle reali indicazioni mediche, su temi estremamente delicati. Parliamo di suggerimenti alimentari per pazienti oncologici o interpretazioni sbagliate di esami del sangue, informazioni che - secondo gli esperti - potevano avere conseguenze gravi sulla salute delle persone.

Risposte giudicate “pericolose” dagli esperti

In uno dei casi più citati, l'IA consigliava ai pazienti con tumore al pancreas di evitare cibi ricchi di grassi, un'indicazione che gli specialisti hanno definito non solo sbagliata, ma potenzialmente letale. In un altro esempio, le spiegazioni sui test di funzionalità epatica risultavano imprecise al punto da poter indurre chi soffre di malattie gravi a credere, erroneamente, di essere in buona salute.

Google conferma che la pubblicità sarà presente anche nell'AI Mode: la ricerca tramite intelligenza artificiale Google conferma che la pubblicità sarà presente anche nell'AI Mode: la ricerca tramite intelligenza artificiale

Nelle ultime ore, chi prova a effettuare ricerche come "qual è il range normale degli esami del fegato" nota che gli AI Overview non vengono più mostrati. Google non ha commentato direttamente la rimozione di questi risultati, limitandosi a un silenzio che lascia intendere una correzione urgente piuttosto che una semplice sperimentazione.

Un altro scivolone per gli AI Overview

Questa non è la prima volta che la funzione finisce al centro delle critiche. In passato, gli AI Overview sono diventati virali per suggerimenti assurdi o palesemente falsi, dall'uso della colla sugli alimenti a consigli alimentari privi di qualsiasi fondamento scientifico. Episodi che hanno già portato a cause legali e richieste di maggiore responsabilità nell'uso dell'intelligenza artificiale.

Se l'obiettivo di Google è integrare l'AI come supporto informativo, casi come questo evidenziano la necessità di controlli molto più rigidi.