5

NVIDIA, il futuro passa per i quarant'anni di Pac-Man

L'intelligenza artificiale di NVIDIA è in grado di riprodurre un gioco completo e punta a trasformare in gioco la realtà

SPECIALE di Mattia Armani   —   22/05/2020

La tecnologia NVIDIA GAN (generative adversarial network) ha fatto capolino per la prima volta a fine 2018 nella forma di una spettacolare demo realizzata sfruttando la capacità dell'intelligenza artificiale di osservare la realtà e tradurla in immagini renderizzate in tempo reale. Un modello, quindi, capace di fare dell'intelligenza artificiale un motore grafico avveniristico.

All'epoca l'attenzione era dedicata principalmente all'aspetto visivo, con la rete GAN combinata con l'Unreal Engine 4 per dare al tutto coesione e un sistema di controllo, sfruttando così come una sorta di engine dotato motion capture applicato all'intero mondo circostante. Un risultato già notevole, ma ben diverso dall'evoluzione di un qualcosa che, ora chiamato GameGAN, è in grado di esaminare l'intera struttura di un videogioco senza conoscerne una sola riga del codice, replicandolo automaticamente tanto nella grafica quanto nelle meccaniche. Inoltre parliamo di una tecnologia che può segmentare quanto imparato in asset da combinare e fondere per creare giochi con un paradigma ben diverso da quello dello sviluppo classico.

Un gioco interamente ricreato dall'intelligenza artificiale

Il ritorno della tecnologia GameGAN coincide con il quarantesimo anniversario di Pac-Man che non a caso è il titolo scelto da NVIDIA per mostrare al mondo un gioco completo ricreato dall'intelligenza artificiale, in questo caso nutrita con 50.000 spezzoni di gioco e con le informazioni relative ai pulsanti premuti dal giocatore. Da tutto questo la tecnologia NVIDIA ha dedotto meccaniche, schermi, nemici, ruolo del protagonista, funzionamento delle pillole speciali e parametri come la velocità di movimento, riportando in vita in 4 giorni il grande classico Namco in una versione ancora imprecisa, ma pienamente funzionante, cosa che potremmo toccare entro fine anno non appena sarà caricata su Ai Playground, e protagonista di un'operazione di reverse engineering decisamente complessa.

Basti pensare al grado di difficoltà che si nasconde dietro all'identificazione da parte di un computer, che non possiede la nostra capacità di astrarre e contestualizzare, di un protagonista che non resta fermo al centro dello schermo, privando l'intelligenza di un riferimento decisamente utile. Ma è proprio superando ostacoli del genere che la tecnologia ha compiuto un passo in avanti nella capacità di osservare e tradurre in meccaniche la realtà stessa. Un qualcosa che è già possibile usare per potenziare la resa di grafica, in questo caso grazie all'IA proprietaria di NVIDIA combinata con ray tracing e NVIDIA Omniverse, come con la spettacolare demo di Marble RTX. Il gameplay è quello del classico labirinto con piano inclinato ma quello che si inclina è un'intera stanza realizzata con qualità fotorealistica, uno studio artistico pieno zeppo di oggetti che possono essere sfruttati per guidare sfera verso il traguardo. Secchi di vernice, pennelli e libri lasciano di stucco, anche grazie all'applicazione massiccia del ray tracing che rende difficile distinguere quello che vediamo dalla realtà. Non a caso NVIDIA ha usato una GeForce RTX QUADRO 8000 per far girare una dimostrazione impressionante anche nella fisica della sfera che, in vetro e quindi attraversata da innumerevoli riflessi, ci da una prima idea di quanto l'uso dell'IA e dell'illuminazione basata sulla fisica siano passi fondamentali per avvicinarsi effettivamente al fotorealismo.

Trasformare la realtà in un asset di gioco

Siamo ancora lontani dalla possibilità di prendere un gioco tridimensionale e replicarlo in tutto e per tutto. Inoltre resta da vedere la compatibilità di questo tipo di sviluppo con quello classico, autoriale, a cui siamo abituati e non sono da sottovalutare possibili problemi di copyright nel caso in cui una tecnologia del genere dovesse diventare di pubblico dominio. Infine non abbiamo idea dei requisiti necessari per utilizzare la tecnologia come un vero e proprio motore grafico. Ma come abbiamo detto GameGAN può essere usata anche per creare asset e mondi da dare in pasto a motori come l'Unreal Engine.

Potremmo quindi non essere lontani da simulatori mozzafiato non solo nella resa grafica, già elevata, ma anche nella riproduzione delle meccaniche. Tornando alla demo del 2018, completata per l'appunto con l'Unreal Engine 4, è facile immaginare giochi di guida realizzati utilizzando una macchina a guida autonoma attrezzata di tutto punto e lasciata libera di scorrazzare in ogni dove. Il tutto anche in funzione dell'addestramento delle intelligenze artificiali destinate alla guida all'interno di simulazioni generate dalle intelligenze artificiali stesse. Ma da giocatori ci vengono prima in mente altre possibilità come quelle di creare titoli sportivi iperrealistici, meno complessi da replicare di altre attività o giochi viste le meccaniche di gioco ben definite e l'area delimitata. Ed è sempre nella veste di giocatori che immaginiamo la possibilità di recuperare animazioni e soggetti di giochi il cui codice originale non è più accessibile. Ma in questo caso restano da superare problematiche legate all'identificazione di soggetti, oggetti e quant'altro, con la gestione delle telecamere che può confondere l'intelligenza artificiale, ma l'obiettivo è quello di arrivare ricostruire mondi a partire da semplici video e quando sarà possibile ostacoli di questo genere saranno superati aprendo la via a remake dalla qualità grafica mozzafiato arricchiti con nuove meccaniche, con avatar intercambiabili e con minigiochi magari basati su sistemi presi dalla realtà, come sembra suggerire la riproduzione dei meccanismi di una catena di montaggio mostrata sempre durante la piccola conferenza online di NVIDIA.

F46A00E1B2A444Ed338C3Cd249919Cdd 1920 Kr

Sia chiaro, non parliamo di scenari a breve termine. Come anticipato non conosciamo tutte le problematiche del caso e non abbiamo idea di quanto una tecnologia del genere possa essere accessibile per lo sviluppatore medio. Ma se il lavoro degli artisti non è finito con l'arrivo della fotogrammetria, del motion capture e della computer grafica fotorealistica, non finirà di certo con NVIDIA GameGAN. Anzi la possibilità di segmentare quello che l'intelligenza ha imparato ed è in grado di riprodurre, sia come meccaniche che asset grafici, dovrebbe rendere più facile catturare, riprodurre e combinare quanto già funziona, della realtà o di altro, anche in funzione di applicazioni professionali. Parliamo di ambienti ricreati in tutto e per tutto, di dimostrazioni di sicurezza simulate alla perfezione senza troppi sforzi e persino di intelligenza artificiale applicata a soggetti e mezzi che si muovono in ambienti virtuali ricreati attraverso l'intelligenza stessa. Il tutto destinato a finire in un repository, una libreria non più fatta di texture, script e oggetti, ma di pezzi di realtà e di mondi di gioco da sfruttare per creare nuovi livelli. Il tutto a partire da un'intelligenza artificiale che con l'evoluzione delle GPU potrebbe portarci alla generazione procedurale di mondi estremamente realistici, tanto nella resa grafica quanto nella fisica e nell'interazione degli oggetti.