![](/f/17e148e8c46f81be7d7c4939ff0eda1e.jpg)
Van de Grand Theft Auto-franchise tot de overvloed aan beschikbare Spider-Man-titelsMet veel videogames kun je een driedimensionale weergave van een echte (of nauwelijks gefictionaliseerde) stad verkennen. Het creëren van deze stadsgezichten is echter niet eenvoudig. De taak vereist duizenden uren computermodellering en zorgvuldige referentiestudies voordat spelers de kans krijgen om door de voltooide virtuele wereld te lopen, rijden of vliegen.
Een indrukwekkende nieuwe techdemo van Nvidia laat zien dat het ook anders kan. Op de NeurIPS-conferentie over kunstmatige intelligentie in Montreal liet het technologiebedrijf zien hoe machine learning-technologie een overtuigende virtuele stad kan genereren door deze simpelweg te laten zien Dash Cam videos. Deze video's zijn verzameld van zelfrijdende auto's tijdens een proefrit van een week door steden. Het trainingsproces voor het neurale netwerk duurde ongeveer een week, waarbij gebruik werd gemaakt van Nvidia’s Tesla V100 GPU’s op een DGX-1 supercomputersysteem. Zodra de A.I. had geleerd waar het naar keek en had bedacht hoe dit in kleurgecodeerde objecten kon worden gesegmenteerd, werden de virtuele steden gegenereerd met behulp van de Unreal Engine 4.
Aanbevolen video's
“Een van de belangrijkste obstakels waarmee ontwikkelaars worden geconfronteerd, is dat het maken van inhoud voor virtuele werelden duur is,” Bryan Catanzaro, vice-president van toegepast deep learning-onderzoek bij Nvidia, aan Digital Trends. “Het kan tientallen maanden duren voordat artiesten een interactieve wereld voor games of VR-toepassingen creëren. We hebben een nieuwe manier gecreëerd om inhoud weer te geven met behulp van deep learning: met behulp van A.I. dat leert van de echte wereld – wat kunstenaars en ontwikkelaars zou kunnen helpen virtuele omgevingen te creëren tegen veel lagere kosten.”
Onderzoek bij NVIDIA: de eerste interactieve AI-gerenderde virtuele wereld
Catanzaro zei dat er talloze potentiële toepassingen voor deze technologie in de echte wereld zijn. Het zou gebruikers bijvoorbeeld in staat kunnen stellen avatars in games aan te passen door met hun mobiele telefoon een korte video te maken en deze vervolgens te uploaden. Dit kan ook worden gebruikt om grappige video's te maken waarin de kenmerken van de gebruiker in kaart worden gebracht op de beweging van een ander lichaam. (Zoals te zien is in de bovenstaande video, vond Nvidia het leuk om een van zijn ontwikkelaars de Gangnam stijl dans.)
"Architecten zouden het [aanvullend] kunnen gebruiken om virtuele ontwerpen voor hun klanten te maken", vervolgde Catanzaro. “Je zou deze techniek kunnen gebruiken om robots of zelfrijdende auto’s te trainen in virtuele omgevingen. In al deze gevallen zou het de kosten en de tijd die nodig is om virtuele werelden te creëren verlagen.”
Hij voegde eraan toe dat dit nog een vroeg onderzoek is en dat het “een paar jaar” zal duren voordat het volwassen is en in commerciële toepassingen kan worden uitgerold. “Maar ik ben blij dat het de manier waarop computergraphics worden gemaakt fundamenteel kan veranderen”, zegt Catanzaro.
Aanbevelingen van de redactie
- De supercomputer van Nvidia kan een nieuw tijdperk van ChatGPT inluiden
- Nvidia's nieuwe stem A.I. klinkt net als een echt persoon
- IBM's AI Het Mayflower-schip steekt de Atlantische Oceaan over en je kunt het live bekijken
- Wetenschappers gebruiken A.I. om kunstmatige menselijke genetische code te creëren
- Slimme nieuwe A.I. systeem belooft uw hond te trainen terwijl u niet thuis bent
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.