Numerose aziende e piattaforme si trovano a fronteggiare la sempre maggiore diffusione dei contenuti generati da intelligenza artificiale e stanno cercando di comprendere come gestire il fenomeno in modo efficiente.
Una delle principali preoccupazioni riguarda l'etichettatura di tali materiali per garantire chiarezza sull'origine, segnalando esplicitamente quando un modello di intelligenza artificiale è responsabile della creazione di una foto, un video o un frammento audio.
In risposta a questo bisogno, YouTube ha introdotto nuove linee guida per l'etichettatura dei video generati con questi mezzi.
In aggiunta, YouTube ha annunciato che i creatori, al momento del caricamento dei video, dovranno dichiarare se i contenuti sono stati creati o modificati attraverso l'utilizzo di intelligenza artificiale.
Etichette di non autenticità
Da oggi in avanti, chiunque carichi un video che appaia realistico, generato attraverso contenuti alterati o "sintetici" sarà tenuto a segnalarlo per trasparenza.
La piattaforma definisce come realistico qualsiasi elemento che potrebbe facilmente essere scambiato per una scena, una persona o un luogo reale.
Nel caso in cui un creatore utilizzi la voce sintetica di una persona reale per la narrazione di un video o sostituisca il volto di un individuo con quello di un'altra persona, sarà tenuto ad apporre un'apposita etichetta.
Inoltre, dovrà dichiarare anche eventuali interventi sulle riprese di un evento o luogo reale, come la modifica di un panorama esistente o la simulazione di un incendio in un edificio reale.
YouTube avverte che, se i creatori non adempiono a queste disposizioni, potrebbe intervenire applicando le etichette in modo coatto.
Pur concedendo del tempo per adeguarsi alle nuove regole, l'azienda prevede di sanzionare coloro che persisteranno a violarle, omettendo gli avvisi ove necessario.
In questa fase di transizione, non ci saranno penalizzazioni, ma in futuro YouTube ha dichiarato che sarà irremovibile.
In caso di violazioni ripetute, i creator potrebbero vedere rimosso il proprio contenuto, sospeso l'account e ricevere ulteriori sanzioni non specificate.
Eccezioni
I creatori non dovranno includere l'etichetta se l'intelligenza artificiale è stata impiegata solamente per scopi creativi, quali la creazione di script, la generazione di idee per video o la produzione automatica di didascalie.
Per argomenti delicati come notizie, elezioni, finanza e salute, YouTube applicherà direttamente un bollino sul lettore video per una maggiore evidenza.
Inoltre, le etichette non saranno necessarie per il "contenuto chiaramente irrealistico" o per modifiche trascurabili.
Regolare i colori o l'applicazione di effetti speciali, come l'aggiunta di sfocature allo sfondo, non richiederà la notifica del contenuto alterato, lo stesso vale per l'applicazione di filtri di illuminazione, filtri di bellezza o altri miglioramenti.
Le azioni di YouTube seguono le raccomandazioni della Casa Bianca che ha sollecitato di recente le grandi aziende tecnologiche a gestire meglio i rischi legati all'IA generativa e a implementare sistemi per identificare i contenuti artificiali (come watermark, metadati, ecc).
Le nuove etichette compariranno sui video nelle prossime settimane.
Va ricordato che poche settimane fa, la tecnologia di Google, precedentemente nota come Bard e ora Gemini AI, è stata criticata per aver prodotto immagini e testi storicamente inesatti e offensivi, con Sundar Pichai stesso che ha espresso pubbliche scuse.