In occasione del Computex 2023 a Taipei, NVIDIA ha presentato la tecnologia ACE (Avatar Cloud Engine), un sistema di IA generativa che dovrebbe rendere dialoghi e comportamenti degli NPC dei videogiochi più naturali e realistici.
In maniera simile a ChatGPT, che abbiamo già visto applicato con le prime mod a condizioni del genere, come in quella che crea dialoghi e dona "coscienza" agli NPC, anche NVIDIA ACE consente la costruzione di dialoghi più profondi e vari, in grado di uscire dalle poche opzioni normalmente disponibili nei videogiochi.
Questo porterà a dialoghi non scriptati, che non si basano su un copione scritto ma improvvisano in base alle informazioni fornite dal giocatore e al contesto.
A questo si aggiunge inoltre un sistema di sincronizzazione labiale che rende le animazioni facciali coerenti con quanto riferito durante i dialoghi.
ACE è parte dell'iniziativa NVIDIA Omniverse, ovvero un insieme di tecnologie che la compagnia sta sviluppando pensando al metaverso e alla realtà virtuale, ma con possibili applicazioni più ampie. Ovviamente, queste richiedono l'utilizzo esclusivo di GPU NVIDIA RTX, che è la condizione necessaria per poter accedere a queste tecnologie a il vero limite alla diffusione sul piano generale.
Parte della tecnologia ACE viene comunque già utilizzata da alcuni sviluppatori: in particolare, il sistema Audio2Face, che consente di sincronizzare le animazioni del volto con le parole pronunciate dai personaggi, si ritrova in S.T.A.L.K.E.R. 2: Heart of Chornobyl, Fort Solis e i prodotti sviluppati da Charisma.ai.