0

Falla di sicurezza in Anthropic: il pericoloso modello "Mythos" finisce nelle mani di un gruppo non autorizzato

Un gruppo non autorizzato ha ottenuto l'accesso a Claude Mythos Preview, il modello di Anthropic specializzato nell'identificare ed espletare vulnerabilità informatiche.

NOTIZIA di Francesco Messina   —   22/04/2026
Anthropic

Il settore dell'intelligenza artificiale sta affrontando quello che molti definiscono il "peggiore scenario possibile". Claude Mythos Preview, descritto dalla stessa Anthropic come il suo modello più pericoloso, è stato accessibile per oltre due settimane a un gruppo non autorizzato di utenti su un forum privato e su Discord.

La notizia, riportata inizialmente da Bloomberg, evidenzia una vulnerabilità non nel codice dell'IA, ma nella catena di fornitura umana e aziendale.

Mythos non è un chatbot comune. Si tratta di uno strumento di cybersecurity di nuova generazione, capace di identificare e sfruttare falle di sicurezza in ogni principale sistema operativo e browser web attualmente sul mercato.

Ulteriori dettagli sull'accesso illecito a Mythos di Anthropic

Proprio per la sua capacità di essere "armato" con estrema facilità, Anthropic aveva limitato l'accesso a una manciata di partner selezionatissimi attraverso l'iniziativa Project Glasswing, tra cui figurano nomi del calibro di Apple, Google, Microsoft, Amazon e Nvidia. L'accesso illecito sarebbe avvenuto il 7 aprile 2026, lo stesso giorno in cui l'azienda annunciava il rilascio limitato del modello per i test.

Anthropic espone a causa di un errore grossolano 512.000 righe di codice di Claude Code su GitHub Anthropic espone a causa di un errore grossolano 512.000 righe di codice di Claude Code su GitHub

Secondo le ricostruzioni, un terzo contraente di Anthropic avrebbe facilitato l'ingresso del gruppo di "sleuthing" informatico sfruttando i propri privilegi di accesso. Anthropic ha confermato di stare indagando sull'incidente avvenuto in uno degli ambienti dei suoi fornitori esterni, precisando però che, al momento, non ci sono prove di una compromissione dei sistemi interni dell'azienda.

Athropic, Mythos e gli interrogativi del caso

Questo incidente solleva interrogativi inquietanti sulla gestione della sicurezza delle cosiddette "IA di frontiera". Se un modello progettato per la difesa può essere trasformato in un'arma d'offesa totale, la sua custodia diventa una questione di sicurezza nazionale.

1965614 Anthropic Announces Enhancements To Claude Ai Models

Mentre le grandi aziende tecnologiche si affrettano a integrare queste capacità nei propri sistemi, la realtà è che basta un singolo anello debole nella catena dei fornitori per far cadere lo "scettro" della cybersecurity nelle mani sbagliate.

Anthropic non ha piani per il rilascio pubblico di Mythos, ma il fatto che sia già trapelato in ambienti non controllati dimostra quanto sia sottile il confine tra protezione e minaccia globale.