13

I chatbot IA "mentono" con naturalezza, soprattutto nelle versioni a pagamento, secondo un nuovo studio

Un nuovo studio del Tow Center for Digital Journalism mette in luce un problema persistente nei chatbot basati su intelligenza artificiale: la tendenza a fornire informazioni errate con estrema sicurezza.

NOTIZIA di Raffaele Staccini   —   13/03/2025
Intelligenza artificiale

Un nuovo studio condotto dal Tow Center for Digital Journalism ha gettato nuova luce su un problema già noto, ma che sembra persistere nonostante i progressi tecnologici: l'inaffidabilità dei chatbot basati sull'intelligenza artificiale generativa. La ricerca, pubblicata sulla Columbia Journalism Review, ha analizzato le risposte di diversi motori di ricerca AI a 200 query basate su articoli giornalistici, rivelando una tendenza allarmante a fornire informazioni errate con estrema sicurezza.

Lo studio ha cercato di capire quanto i chatbot siano in grado di fornire risposte accurate a domande di carattere giornalistico. Si è partiti da un dato di fatto: l'intelligenza artificiale è sempre più presente nella nostra vita quotidiana e viene utilizzata per ottenere informazioni su qualsiasi argomento. Ma quanto ci si può fidare delle risposte fornite da questi strumenti?

I risultati dello studio

I risultati della ricerca sono stati preoccupanti. ChatGPT Search, ad esempio, è risultato l'unico strumento AI a rispondere a tutte le 200 domande, ma solo il 28% delle risposte era completamente accurato, mentre ben il 57% conteneva informazioni totalmente errate. Questo dato conferma quanto già osservato in precedenza, ovvero la tendenza di ChatGPT a rispondere con sicurezza anche a domande su cui non ha informazioni certe.

Il Tow Center ha chiesto a otto strumenti di ricerca generativi di identificare l'articolo di origine, la pubblicazione e l'URL per 200 estratti ricavati da articoli di stampa di 20 editori. I risultati sono rappresentati da quadrati colorati, dove ogni colore indica il grado di accuratezza della citazione (da 'completamente corretto' a 'completamente errato' o 'nessuna risposta fornita'). Il grafico evidenzia anche la 'fiducia' che questi strumenti dimostrano nelle loro risposte.
Il Tow Center ha chiesto a otto strumenti di ricerca generativi di identificare l'articolo di origine, la pubblicazione e l'URL per 200 estratti ricavati da articoli di stampa di 20 editori. I risultati sono rappresentati da quadrati colorati, dove ogni colore indica il grado di accuratezza della citazione (da "completamente corretto" a "completamente errato" o "nessuna risposta fornita"). Il grafico evidenzia anche la "fiducia" che questi strumenti dimostrano nelle loro risposte.

Ma ChatGPT Search non è il solo a mostrare delle lacune. Entrambe le versioni di Grok AI di X hanno mostrato prestazioni scadenti, con Grok-3 che ha raggiunto un impressionante 94% di risposte inaccurate. Anche Microsoft Copilot non ha brillato, rifiutandosi di rispondere a 104 query su 200 e fornendo un tasso di inaccuratezza del 70% circa nelle risposte fornite.

Ciò che rende la situazione ancora più paradossale è la mancanza di trasparenza delle aziende produttrici riguardo questa inaffidabilità. Curiosamente, poi, le versioni a pagamento come Perplexity Pro e Grok-3 Search sembrano anche meno affidabili: "si potrebbe presumere che i modelli premium, come Perplexity Pro (20 dollari al mese) o Grok 3 (40 dollari al mese), siano più affidabili delle loro controparti gratuite", si spiega nello studio, "dato il loro costo più elevato e i presunti vantaggi computazionali. Tuttavia, i nostri test hanno dimostrato che, sebbene entrambi abbiano risposto correttamente a più richieste rispetto ai loro equivalenti gratuiti, hanno paradossalmente dimostrato anche tassi di errore più elevati".

Questa contraddizione, secondo gli autori, deriverebbe dalla loro tendenza a fornire risposte definitive, ma errate, piuttosto che rifiutarsi di rispondere direttamente alla domanda.

E voi, cosa ne pensate? Avete avuto esperienze simili con i chatbot? Condividete le vostre opinioni nei commenti. Intanto anche l'azienda che assembla iPhone ha sviluppato una sua IA: arriva FoxBrain di Foxconn.