79

Instagram si sta riempiendo di immagini pedopornografiche realizzate con le intelligenze artificiali

Stando a un recente resoconto, Instagram e altri social si starebbero riempiendo di immagini pedopornografiche realizzate con le intelligenze artificiali generative.

NOTIZIA di Simone Tagliaferri   —   03/06/2024
Un'immagine realizzata con un'intelligenza artificiale

Le intelligenze artificiali generative sono l'inevitabile futuro che ci aspetta, perché comode e veloci, perché hanno dietro interessi multimiliardari e perché possono gonfiare l'ego di tutti. È chiaro che molti le useranno per scopi nefandi, come creare spam più verosimile, realizzare dei falsi coinvolgendo persone vere e realizzare immagini vietate, come quelle di natura pedopornografica.

Come riportato da Forbes, il social network Instagram in particolare è stato preso d'assalto da immagini del genere, pubblicate senza alcun controllo da parte di Meta, la compagnia che lo gestisce.

Il resoconto scende anche nel dettaglio sui tipi di commenti pubblicati da queste persone, che frequentano in particolare Instagram e TikTok, dove spesso sono i minori stessi, o i loro genitori, a creare involontariamente l'offerta per andare a caccia di like.

Tante agenzie hanno condotto battaglie feroci contro la pedofilia online, ma con l'intelligenza artificiale la situazione potrebbe sfuggire definitivamente di mano, vista la facilità con cui si possono creare questi contenuti.

I pedofili e chi gli dà gli strumenti

La parte peggiore è che il trend nasce dall'avidità delle compagnie stesse che gestiscono le IA, perché hanno usato volontariamente materiale CSAM (Child Sexual Abuse Material) per addestrare i loro modelli. Ad esempio uno studio risalente a dicembre 2023 ha scoperto la presenza di questo tipo di immagini nei dataset di Stable Diffusion, una delle IA generative di immagini più usate. Google stessa ha ammesso di averle usate per la sua IA.

Le compagnie hanno addestrato volutamente le loro IA con materiale pedopornografico
Le compagnie hanno addestrato volutamente le loro IA con materiale pedopornografico

Insomma poi non possiamo stupirci che i pedofili abbiano trovato il modo di sfruttare a loro volta tutto questo materiale. A peggiorare la situazione c'è anche un grosso buco legale, perché alcuni dei materiali scoperti da Forbes sono considerati legali, visto che le immagini sono false e i minori rappresentati non sono completamente nudi.

Insomma, sono comunque immagini sessualmente suggestive, probabilmente si basano su delle immagini reali, attirano le attenzioni e i commenti dei pedofili, ma nessuno pone di limiti concreti. Meta e ByteDance hanno cancellato gli account segnalati da Forbes, che corrisponde un po' a nascondere la polvere sotto al tappeto, considerando che non ci si può aspettare un resoconto giornalistico per ogni account del genere che appare online.