Il governo degli Stati Uniti rafforza il controllo sui modelli di IA più avanzati attraverso nuove collaborazioni con le principali aziende tecnologiche. L'obiettivo è valutare in anticipo i rischi legati alla sicurezza informatica e alla sicurezza nazionale.
Secondo quanto annunciato dal National Institute of Standards and Technology, alcune aziende condivideranno versioni non ancora pubbliche dei propri modelli. Si tratta di un passo che segnala un cambio di approccio nella gestione dell'IA.
L'accordo tra Stati Uniti e Big Tech
Tra i partecipanti figurano Google, Microsoft e xAI, che collaboreranno con il Center for AI Standards and Innovation (CAISI), struttura interna al Dipartimento del Commercio statunitense. Il centro si occupa di analizzare le capacità dei modelli IA e il loro potenziale impatto su sicurezza pubblica e difesa.
Il programma prevede test sia prima sia dopo la distribuzione delle tecnologie. Finora sono state completate oltre 40 valutazioni, ma le nuove partnership dovrebbero ampliare le risorse disponibili, migliorando la capacità di analisi. "La scienza delle misurazioni indipendente e rigorosa è essenziale per comprendere l'IA di frontiera e le sue implicazioni per la sicurezza nazionale", ha dichiarato il direttore del CAISI Chris Fall in un comunicato. "Queste collaborazioni industriali ampliate ci aiutano a scalare il nostro lavoro nell'interesse pubblico in un momento critico".
L'accelerazione è legata anche all'arrivo di modelli sempre più avanzati. Il caso di Mythos, sviluppato da Anthropic, ha contribuito ad aumentare le preoccupazioni. Secondo l'azienda, il sistema sarebbe particolarmente avanzato nel campo della sicurezza informatica, al punto da non essere ancora pubblicato pubblicamente.
Anche OpenAI ha annunciato la disponibilità dei propri modelli per le agenzie governative, con l'obiettivo di anticipare eventuali minacce legate all'uso dell'IA. Il rafforzamento dei controlli risponde anche a limiti strutturali delle istituzioni pubbliche, che spesso non dispongono delle stesse risorse tecniche e computazionali delle grandi aziende. La collaborazione con il settore privato diventa quindi un elemento centrale per garantire test più approfonditi.
Parallelamente, la Casa Bianca sta valutando la creazione di un processo formale di revisione per i nuovi modelli IA. Una misura di questo tipo segnerebbe un cambio rispetto all'approccio più permissivo adottato in passato.
Per conoscere i dettagli della nostra policy editoriale, è disponibile la pagina etica.