Cosa succederebbe se l'intelligenza artificiale potesse essere utilizzata per contrastare questa tendenza? Una recente ricerca pubblicata sulla prestigiosa rivista Science ha esplorato proprio questa possibilità. Un team di scienziati ha utilizzato un chatbot basato sull'IA generativa, in grado di confrontarsi con le persone sulle loro convinzioni complottiste e fornire argomentazioni basate su fatti e prove concrete. L'obiettivo era verificare se l'IA potesse indurre un cambiamento nel modo di pensare delle persone, portandole a riconsiderare le loro convinzioni.
L'esperimento è arrivato perché nell'era digitale, la diffusione di teorie del complotto e disinformazione è diventata una problematica sempre più pressante. La pandemia di COVID-19 ha ulteriormente amplificato questo fenomeno, sfruttando la paura e l'incertezza per diffondere narrazioni false e fuorvianti.
Lo studio del team di ricerca, guidato da Thomas Costello della American University di Washington, ha coinvolto oltre 1.000 partecipanti, selezionati per rappresentare un campione eterogeneo della popolazione statunitense. Ogni partecipante ha poi interagito con il chatbot, basato sul modello linguistico GPT-4 Turbo di OpenAI e in grado di affrontare efficacemente le teorie del complotto, condividendo una teoria del complotto a cui credeva e spiegando le motivazioni alla base della sua convinzione. Il chatbot ha risposto con informazioni dettagliate e argomenti contrari, mettendo in luce le evidenze che smentivano la teoria del complotto.
I risultati sono stati sorprendenti. La fiducia dei partecipanti nelle loro convinzioni complottiste è diminuita in media del 21% dopo l'interazione con il chatbot. Ancora più significativo, il 25% di coloro che inizialmente erano fortemente convinti delle loro teorie ha mostrato segni di incertezza dopo il confronto con l'IA. Questo cambiamento di atteggiamento si è mantenuto anche a distanza di due mesi, indicando un impatto duraturo dell'interazione con il chatbot.
Nonostante i risultati positivi, gli autori dello studio sottolineano alcune limitazioni. I partecipanti erano utenti pagati, e non è certo che gli stessi risultati possano essere replicati con persone che hanno credenze più radicate e profonde nelle teorie del complotto. Inoltre, sebbene il chatbot abbia dimostrato di poter fornire risposte accurate, l'IA generativa può ancora produrre informazioni errate o fuorvianti. Per garantire l'affidabilità delle risposte, i ricercatori hanno sottoposto le risposte del chatbot a un fact-checker professionista, che ha confermato la loro correttezza e neutralità.
E voi che cosa ne pensate? Il futuro della lotta alla disinformazione potrebbe essere segnato da un'alleanza tra l'intelligenza umana e quella artificiale? Diteci la vostra nei commenti qua sotto.