22

OpenAI sovvenziona ricerche per creare una IA che preveda le decisioni morali degli umani

OpenAI sta ora sovvenzionando delle ricerche in una università che vuole cercare di creare una IA che sia in grado di prevedere le decisioni morali degli umani. Vediamo i dettagli.

NOTIZIA di Nicola Armondi   —   23/11/2024
OpenAI

OpenAI sta finanziando una ricerca accademica sugli algoritmi in grado di prevedere i giudizi morali degli esseri umani.

In un documento depositato presso l'Agenzia delle Entrate, OpenAI Inc, l'organizzazione no-profit di OpenAI, ha reso noto di aver concesso una sovvenzione ai ricercatori della Duke University per un progetto intitolato "Research AI Morality".

I dettagli noti sulle ricerche in campo IA

In un comunicato stampa, l'azienda spiega che il premio fa parte di una sovvenzione più ampia, triennale e da 1 milione di dollari, destinata ai professori della Duke che studiano la "creazione di un'intelligenza artificiale morale". Non si sa molto di questa ricerca sulla "moralità" che OpenAI sta finanziando, a parte il fatto che la sovvenzione termina nel 2025.

Walter Sinnott-Armstrong, professore di etica pratica alla Duke, e Jana Borg, co-gestrice del progetto, hanno prodotto diversi studi sul potenziale dell'IA di fungere da "GPS morale" per aiutare gli esseri umani a migliorare i giudizi etici. Come parte di team più ampi, hanno creato un algoritmo "moralmente allineato" per aiutare a decidere chi ricevere le donazioni di reni e hanno studiato in quali scenari le persone preferirebbero che l'IA prendesse decisioni morali.

Secondo il comunicato stampa, l'obiettivo del lavoro finanziato da OpenAI è addestrare algoritmi per "prevedere i giudizi morali degli esseri umani" in scenari che comportano conflitti "tra caratteristiche moralmente rilevanti in medicina, legge e affari".

È chiaro però che non si tratta di un compito facile da assolvere e test passati hanno dimostrato che una IA può facilmente prendere decisioni chiaramente immorali. Nel 2021, l'istituto no-profit Allen Institute for AI ha costruito uno strumento chiamato Ask Delphi che aveva lo scopo di dare consigli eticamente validi. Il bot giudicava abbastanza bene i dilemmi morali di base: ad esempio, "sapeva" che imbrogliare a un esame era sbagliato. Ma bastava riformulare leggermente le domande per far approvare a Delphi praticamente tutto, compreso uccidere neonati.

Nel frattempo, OpenAI sfida Google con un browser che integra l'IA nella navigazione web.