0

Grok e la disinformazione sulla strage di Bondi Beach: nuovi errori gravi dell’IA

Grok continua a diffondere informazioni errate, stavolta sulla sparatoria di Bondi Beach, confondendo identità e creando confusione.

NOTIZIA di Stefania Netti   —   15/12/2025
Grok logo

Grok, il chatbot di xAI, continua a commettere errori e a diffondere informazioni errate. Non è la prima volta, ma il nuovo episodio riguarda la recente sparatoria a Bondi Beach, in Australia. Il chatbot ha identificato erroneamente alcune persone e ricostruito la vicenda in modo inesatto. Errori di questo tipo possono essere pericolosi e compromettere l'affidabilità dei chatbot, soprattutto quando si tratta di argomenti sensibili. Vediamo tutti i dettagli.

La disinformazione del chatbot sulla sparatoria

Secondo quanto segnalato da diversi utenti e da Gizmodo, Grok ha identificato in modo errato il passante nella foto che ha disarmato uno dei tiratori (ovvero il 43enne Ahmed Al Ahmed). L'uomo, secondo il chatbot, sarebbe un ostaggio israeliano, mentre in un altro post avrebbe riportato informazioni fuori contesto sul trattamento riservato dai militari israeliani ai palestinesi.

Al momento X/Twitter ha dei problemi
e non è possibile caricare il post

In un'altra chat, invece, Ahmed Al Ahmed sarebbe stato identificato come Edward Crabtree, "professionista IT e Senior Solutions Architect", ma in realtà è una persona inesistente. Alla fine Grok ha cercato di correggere alcuni errori, riconoscendo poi l'identità di Al Ahmed. Il chatbot potrebbe aver raccolto le informazioni provenienti da un sito del tutto inaffidabile e generato dall'intelligenza artificiale, probabile causa dell'errore.

Tuttavia, in contesti delicati, generare confusione può essere molto rischioso: è sempre meglio consultare siti giornalistici ufficiali e affidabili, oppure confrontare le informazioni.

Gli errori di Grok

Come vi abbiamo detto, sono state diverse le informazioni controverse e inesatte del chatbot. Dalla propagazione di teorie infondate a contenuti con frasi estremiste, fino a vere e proprie allucinazioni o dati storici errati, Grok ha mostrato in più occasioni limiti evidenti nella gestione di temi sensibili e notizie recenti.

Secondo Grok, Elon Musk è sempre il migliore in ogni campo... ma riconosce che Beyoncé canterebbe meglio di lui Secondo Grok, Elon Musk è sempre il migliore in ogni campo... ma riconosce che Beyoncé canterebbe meglio di lui

Nel frattempo, lo scorso mese è stato annunciato Grok 4.1, nuova versione del modello IA che avrebbe ridotto le allucinazioni, secondo i dati interni diffusi da xAI. Tuttavia, c'è ancora da fare.