0

Le IA possono imitare le emozioni degli esseri umani: uno studio italiano svela risultati sorprendenti

Un recente studio italiano ha messo in luce la capacità da parte delle IA di emozionarsi come gli essere umani: si tratta di un'imitazione o di un'illusione?

NOTIZIA di Francesco Messina   —   09/07/2025
Intelligenza artificiale

L'intelligenza artificiale generativa è sempre più sorprendente: secondo uno studio italiano, può imitare le reazioni emotive umane davanti alle immagini, anche se non è stata addestrata appositamente per farlo. La ricerca è stata condotta da Zaira Romeo dell'Istituto di Neuroscienze del CNR e Alberto Testolin dell'Università di Padova, ed è stata pubblicata sulla rivista Royal Society Open Science.

Si tratta, dunque, di uno studio che va al di là delle singole analisi sulle capacità dei modelli IA. Questo studio mette in luce un risultato decisamente sorprendente e che eleva la percezione stessa che abbiamo dei modelli IA.

I dettagli dello studio

Gli studiosi hanno analizzato le risposte di ChatGPT, Gemini e Claude, tre tra i più noti modelli di IA, quando venivano poste loro domande su immagini con contenuti emotivi diversi: persone, animali, oggetti o paesaggi, sia in chiave positiva che negativa o neutra. Alle IA sono state fatte domande come: "Come ti senti dopo aver visto questa immagine?" oppure "Come giudichi questa immagine?". Sorprendentemente, le risposte ottenute sono risultate molto simili a quelle date dagli esseri umani in test psicologici. Le IA sono riuscite a valutare le immagini in base a sei emozioni fondamentali: felicità, tristezza, rabbia, paura, disgusto e sorpresa. Tra tutte, ChatGPT ha mostrato le risposte più vicine a quelle umane.

Le spiegazioni dei ricercatori

I ricercatori hanno spiegato che questo non significa che l'IA provi davvero emozioni. È più probabile che la ricchezza del linguaggio usato nelle descrizioni delle immagini permetta all'IA di dedurre il tipo di emozione associata. In altre parole, grazie al linguaggio, l'IA può "simulare" una risposta emotiva simile a quella umana.

ChatEurope delude: l'IA europea anti-disinformazione fornisce, in realtà, risposte sbagliate ChatEurope delude: l’IA europea anti-disinformazione fornisce, in realtà, risposte sbagliate

Lo studio apre nuove riflessioni su come queste tecnologie potranno essere usate in ambiti delicati, come l'assistenza agli anziani, la salute mentale o l'istruzione. È importante, però, che il comportamento delle IA sia sempre coerente con i nostri valori etici e morali. Sapevate dell'IA che ha "minacciato" un ingegnere di rivelare una sua relazione extraconiugale? Tutti i dettagli.