La Commissione Europea ha diffuso la versione finale del Codice di Condotta per i modelli di intelligenza artificiale general-purpose, una guida destinata a supportare gli sviluppatori nella preparazione all'entrata in vigore dell'AI Act. Si tratta di uno strumento volontario, pensato per anticipare l'adeguamento a una normativa che, una volta operativa, rappresenterà il primo quadro regolatorio globale basato sul livello di rischio dei sistemi di intelligenza artificiale.
Il documento, frutto della collaborazione tra tredici esperti indipendenti e oltre mille stakeholder del settore, si concentra sui modelli IA di base, come GPT, Claude o LLaMA, capaci di adattarsi a molteplici compiti. Sebbene l'AI Act entrerà in vigore il 2 agosto 2025, per questi modelli la piena applicabilità è prevista in una fase successiva, tra il 2026 e il 2027. Il codice rappresenta dunque un orientamento utile per muoversi con maggiore consapevolezza nel nuovo scenario normativo.
Il codice di condotta europeo per l'IA
Il codice si articola in tre ambiti principali, individuati come prioritari per una regolamentazione efficace e graduale. Il primo è la trasparenza, che introduce uno schema di documentazione standard chiamato Model Documentation Form. Si tratta di un modulo che raccoglie le informazioni essenziali sui modelli, come la natura dei dati di addestramento e le capacità tecniche, con l'obiettivo di rendere le tecnologie IA più comprensibili e verificabili da terze parti.
La seconda area riguarda la gestione del diritto d'autore, tema centrale per l'intelligenza artificiale generativa, spesso basata su dati provenienti da contenuti protetti. In questo ambito, il codice propone una serie di indicazioni per aiutare gli sviluppatori a conformarsi al quadro normativo europeo, ancora in evoluzione ma già oggetto di attenzione da parte di diverse autorità.
La terza sezione si concentra sulla sicurezza e sulla gestione dei rischi legati ai modelli più avanzati. In particolare, vengono suggerite misure per identificare e mitigare pericoli sistemici, come la potenziale creazione di sostanze chimiche pericolose, la disinformazione su larga scala o la perdita di controllo sui sistemi. Il codice fornisce quindi una base per l'introduzione di pratiche tecniche e organizzative in grado di prevenire scenari critici, pur senza imporre obblighi giuridici.
La sottoscrizione del codice sarà su base volontaria. Per i fornitori di modelli IA che sceglieranno di aderire, tuttavia, il codice potrebbe rappresentare un vantaggio strategico. Infatti, la Commissione prevede che l'adozione delle linee guida potrà facilitare la dimostrazione della conformità all'AI Act, semplificando i procedimenti e offrendo maggiore certezza giuridica nel tempo. Questo aspetto è rilevante soprattutto per le aziende che operano in più paesi dell'Unione, dove il quadro regolatorio potrà variare nella fase di recepimento nazionale.
Secondo quanto dichiarato da Henna Virkkunen, vicepresidente esecutiva per la Sovranità Tecnologica, il codice rappresenta un passaggio significativo verso un'intelligenza artificiale non solo performante, ma anche affidabile e trasparente. Il messaggio della Commissione è chiaro: promuovere una cultura della responsabilità tra chi sviluppa sistemi complessi, senza però introdurre vincoli anticipati che possano ostacolare l'innovazione.
Voi che cosa ne pensate? Ha senso che un codice di questo tipo sia su base volontaria, senza pene per i trasgressori? Diteci la vostra nei commenti qua sotto.