Il nuovo A.I. di Nvidia crea intere città virtuali guardando video cam dash

nvidia virtual city tech ai neuriti della ricerca
Nvidia

Dal franchise di Grand Theft Auto alla pletora di titoli Spider-Man disponibili, molti videogiochi ti permettono di esplorare una rappresentazione tridimensionale di una città reale (o leggermente fittizia). Creare questi paesaggi urbani non è tuttavia facile. L'attività richiede migliaia di ore di modellazione al computer e accurati studi di riferimento prima che i giocatori abbiano la possibilità di camminare, guidare o volare attraverso il mondo virtuale completato.

Una nuova demo tecnologica di Nvidia dimostra che c'è un altro modo, comunque. Presentata alla conferenza sull'intelligenza artificiale di NeurIPS a Montreal, la compagnia tecnologica ha illustrato come la tecnologia di apprendimento automatico può generare una città virtuale convincente semplicemente mostrando i suoi video con la dash cam. Questi video sono stati raccolti da auto a guida autonoma, durante una prova di una settimana in giro per le città. Il processo di formazione della rete neurale ha richiesto circa una settimana utilizzando le GPU Tesla V100 di Nvidia su un sistema di supercomputer DGX-1. Una volta che l'intelligenza artificiale ha appreso cosa stava guardando e ha capito come segmentare questo in oggetti con codice colore, le città virtuali sono state generate utilizzando l'Unreal Engine 4.

"Uno dei principali ostacoli che gli sviluppatori devono affrontare è che la creazione di contenuti per i mondi virtuali è costosa", ha dichiarato a Digital Trends Bryan Catanzaro , vicepresidente della ricerca applicata sull'apprendimento approfondito presso Nvidia. "Possono essere necessari decine di artisti per creare un mondo interattivo per giochi o applicazioni VR. Abbiamo creato un nuovo modo di rendere i contenuti utilizzando l'apprendimento profondo – utilizzando l'intelligenza artificiale che impara dal mondo reale – che potrebbe aiutare artisti e sviluppatori a creare ambienti virtuali a un costo molto più basso ".

Catanzaro ha detto che ci sono una miriade di potenziali applicazioni del mondo reale per questa tecnologia. Ad esempio, potrebbe consentire agli utenti di personalizzare gli avatar nei giochi prendendo un breve video con il loro telefono cellulare e quindi caricandolo. Questo potrebbe anche essere usato per creare video divertenti in cui le funzioni dell'utente sono mappate sul movimento di un altro corpo. (Come visto nel video sopra, Nvidia si è divertita facendo fare uno dei suoi sviluppatori al ballo di Gangnam Style ).

"Gli architetti potrebbero [utilizzarlo] anche per il rendering di progetti virtuali per i loro clienti", ha proseguito Catanzaro. "Potresti usare questa tecnica per addestrare robot o auto a guida automatica in ambienti virtuali. In tutti questi casi, ridurrebbe il costo e il tempo necessario per creare mondi virtuali. "

Ha aggiunto che questa è ancora una ricerca iniziale e impiegherà "alcuni anni" per maturare e svilupparsi in applicazioni commerciali. "Ma sono eccitato che potrebbe cambiare radicalmente il modo in cui vengono creati i computer grafici", ha detto Catanzaro.

( Fonte )

Precedente Tom Cruise ti vuole cambiare le impostazioni TV Successivo Come utilizzare Drop In e annunci sui tablet Fire HD di Amazon

Rispondi