Un gruppo di ricercatori dell'Università di Amsterdam ha portato avanti un esperimento insolito ma rivelatore: creare un social network abitato esclusivamente da chatbot basati sul modello linguistico GPT-4o di OpenAI. L'obiettivo era verificare se le strategie proposte dalle big tech per contrastare odio online, disinformazione e polarizzazione potessero davvero funzionare in un contesto controllato.
Il risultato, tuttavia, è stato tutt'altro che incoraggiante. Le sei misure testate si sono dimostrate inefficaci nel risolvere i problemi di fondo anzi, alcune hanno persino prodotto effetti indesiderati e hanno mancato gli obiettivi di promozione della diversità di opinioni ecc...
I principali problemi riscontrati
Il feed cronologico, ad esempio, spesso invocato come panacea, ha ridotto la disuguaglianza nell'attenzione, ma ha avuto un effetto collaterale inaspettato: ha portato i contenuti estremisti ai vertici della visibilità. Questo dimostra che anche interventi apparentemente semplici possono rafforzare le stesse dinamiche che si vorrebbero arginare.
Secondo Petter Törnberg, professore di intelligenza artificiale e social media, e Maik Larooij, co-autore dello studio, il problema non risiede soltanto nella presenza di contenuti tossici. La vera criticità è che questi contenuti modellano la struttura stessa delle reti sociali, generando cicli di retroazione che amplificano la radicalizzazione.
I risultati dello studio
Lo studio ha anche evidenziato il fenomeno della concentrazione estrema dell'attenzione: pochi contenuti catalizzano la maggior parte delle interazioni, relegando la maggioranza dei post all'invisibilità. Una dinamica che, con l'avvento dell'intelligenza artificiale generativa, rischia di peggiorare ulteriormente.
"Stiamo già osservando come l'IA venga utilizzata per creare contenuti che massimizzano l'attenzione, spesso veicolando disinformazione o messaggi polarizzanti", ha spiegato Törnberg. I ricercatori invitano a riflettere sulla fragilità strutturale dei social media. Le promesse iniziali di luoghi virtuali per un confronto aperto e costruttivo appaiono oggi lontane. Al contrario, lo scenario che emerge è quello di piattaforme destinate a diventare sempre più terreno fertile per estremismi, disinformazione e automazione incontrollata.