Un nuovo studio condotto da Microsoft AI for Good ha rivelato quanto sia difficile per le persone distinguere tra immagini reali e quelle generate da intelligenza artificiale. Lo studio ha coinvolto oltre 12.500 partecipanti in tutto il mondo, che hanno valutato più di 287.000 immagini. Il risultato? Un tasso di successo del solo 62% nel riconoscere le immagini false, appena sopra il caso.
I partecipanti si sono dimostrati più bravi a individuare i ritratti umani generati dall'AI, ma la loro accuratezza è crollata al 59-61% con paesaggi naturali e urbani, dove le differenze tra realtà e finzione diventano sottilissime. Le immagini mostrate erano simili a quelle che si potrebbero incontrare comunemente online, evitando casi estremi o chiaramente alterati.
I dati più signficativi
Uno dei dati più significativi emersi riguarda l'efficacia degli strumenti automatici: un rilevatore AI utilizzato dagli stessi ricercatori ha raggiunto un tasso di successo superiore al 95%, sia per immagini vere che generate.
Ma anche questa tecnologia non è infallibile, specialmente quando le immagini vengono manipolate in modo sottile, ad esempio con la tecnica dell'inpainting, che sostituisce piccoli elementi di una foto reale con contenuti AI. Queste manipolazioni sono estremamente difficili da individuare a occhio nudo.
I casi sorprendenti con le GAN
Lo studio ha inoltre dimostrato che i modelli AI più vecchi, come le GAN (Generative Adversarial Networks), risultano sorprendentemente efficaci nel "fregare" l'occhio umano proprio perché generano immagini più amatoriali e meno patinate rispetto ai modelli moderni come Midjourney o DALL·E 3.
Alla luce di questi risultati, Microsoft chiede l'adozione urgente di strumenti di trasparenza come filigrane digitali visibili e tecnologie robuste per il rilevamento dell'IA, al fine di contrastare la disinformazione. Ma attenzione: anche le filigrane possono essere facilmente rimosse o rese invisibili da utenti malintenzionati. Lo studio lancia, dunque, un chiaro allarme: senza assistenza tecnologica, l'essere umano è vulnerabile ai falsi visivi creati dall'intelligenza artificiale e c'è bisogno di supporto costante per evitare che l'IA possa generare danni all'interno delle varie comunità online.