Le principali aziende nel campo dell'intelligenza artificiale, come OpenAI, Microsoft, Google e Meta hanno unito le forze per garantire che i loro strumenti non vengano utilizzati per scopi dannosi.
Uno degli obiettivi principali è evitare l'abuso dei minori e la produzione di materiale sessualmente esplicito coinvolgente essi, una pratica fortemente condannata.
Questa collaborazione è guidata da Thorn, un'organizzazione dedicata alla sicurezza dei minori, e da All Tech Is Human, un'associazione no-profit che promuove la tecnologia responsabile.
Thorn ritiene che gli impegni presi dalle aziende nel settore dell'intelligenza artificiale rappresentino un passo innovativo e significativo nella tutela dei bambini contro gli abusi sessuali, specialmente considerando l'avanzamento delle tecnologie di intelligenza artificiale generativa.
Documento per prevenire
Solo nel 2023, negli Stati Uniti sono stati segnalati oltre 104 milioni di file sospetti riguardanti abusi sessuali su minori.
Senza un'azione coordinata, c'è il rischio che l'IA possa aggravare il problema, mettendo ulteriormente sotto pressione le forze dell'ordine nell'identificare le vittime reali.
Martedì, Thorn e All Tech Is Human hanno pubblicato un nuovo documento intitolato "Sicurezza per Progettazione per Intelligenza Artificiale Generativa: Prevenire gli Abusi Sessuali su Minori".
Questo testo offre strategie e suggerimenti per le aziende coinvolte nello sviluppo di strumenti di IA, motori di ricerca, piattaforme di social media, società di hosting e sviluppatori, al fine di prevenire gli abusi.
Tra le raccomandazioni principali vi è la selezione attenta dei dati utilizzati per addestrare i modelli di intelligenza artificiale.
Si consiglia di evitare i dataset contenenti solo materiale pedopornografico, così come i contenuti sessuali per adulti, poiché l'IA generativa tende a confondere entrambi i concetti.
Metodi di contrasto
Thorn sta incoraggiando le piattaforme di social media e i motori di ricerca a rimuovere i collegamenti a siti web e app che consentono il "nudismo" di immagini di bambini, contribuendo così alla generazione di nuovo materiale online di abusi sessuali su minori attraverso l'IA.
"Questo progetto è stato concepito per dimostrare chiaramente che non dobbiamo rassegnarci", ha affermato Rebecca Portnoff, vicepresidente della scienza dei dati di Thorn, al The Wall Street Journal. "Vogliamo cambiare il corso di questa tecnologia in modo che i danni attuali vengano fermati fin dall'inizio."
Portnoff ha rivelato che alcune aziende hanno già accettato di separare immagini, video e audio che coinvolgono bambini da set di dati contenenti contenuti per adulti, per evitare che i propri modelli combinino le due categorie.
Altre aziende stanno anche introducendo filigrane per identificare i contenuti generati dall'IA, sebbene questo metodo non sia infallibile, poiché filigrane e metadati possono essere facilmente rimossi.