Från Grand Theft Auto-serien till överflöd av tillgängliga Spider-Man-titlar, massor av videospel låter dig utforska en tredimensionell representation av en verklig (eller tunt fiktiviserad) stad. Att skapa dessa stadsbilder är dock inte lätt. Uppgiften kräver tusentals timmars datormodellering och noggranna referensstudier innan spelare har chansen att gå, köra eller flyga genom den kompletta virtuella världen.
En imponerande ny teknisk demo från Nvidia visar att det dock finns ett annat sätt. Teknikföretaget visades upp på NeurIPS konferens för artificiell intelligens i Montreal och visade upp hur maskininlärningsteknik kan skapa en övertygande virtuell stad genom att helt enkelt visa den dash cam videoklipp. Dessa videor samlades in från självkörande bilar under en veckas provkörning i städer. Träningsprocessen för neurala nätverk tog ungefär en vecka med Nvidias Tesla V100 GPU: er på ett DGX-1 superdatorsystem. När A.I. hade lärt sig vad den tittade på och kommit på hur man segmenterar detta i färgkodade objekt, de virtuella städerna genererades med Unreal Engine 4.
Rekommenderade videor
"Ett av de största hindren för utvecklare är att det är dyrt att skapa innehåll för virtuella världar." Bryan Catanzaro, vice vd för tillämpad djupinlärningsforskning på Nvidia, berättade för Digital Trends. "Det kan ta dussintals artister månader att skapa en interaktiv värld för spel eller VR-applikationer. Vi har skapat ett nytt sätt att återge innehåll med hjälp av djupinlärning – med hjälp av A.I. som lär sig av den verkliga världen – vilket kan hjälpa artister och utvecklare att skapa virtuella miljöer till en mycket lägre kostnad.”
Forskning på NVIDIA: The First Interactive AI Rendered Virtual World
Catanzaro sa att det finns otaliga potentiella verkliga tillämpningar för denna teknik. Det kan till exempel tillåta användare att anpassa avatarer i spel genom att ta en kort video med sin mobiltelefon och sedan ladda upp den. Detta kan också användas för att skapa roliga videor där användarens funktioner kartläggs på en annan kropps rörelse. (Som sett i videon ovan hade Nvidia lite kul att få en av dess utvecklare att utföra Gangnam stil dansa.)
"Arkitekter kunde [dessutom] använda det för att göra virtuella mönster för sina kunder," fortsatte Catanzaro. "Du kan använda den här tekniken för att träna robotar eller självkörande bilar i virtuella miljöer. I alla dessa fall skulle det sänka kostnaden och tiden det tar att skapa virtuella världar.”
Han tillade att detta fortfarande är tidig forskning och kommer att ta "några år" att mogna och rulla ut i kommersiella tillämpningar. "Men jag är glad över att det i grunden kan förändra hur datorgrafik skapas," sa Catanzaro.
Redaktörens rekommendationer
- Nvidias superdator kan skapa en ny era av ChatGPT
- Nvidias nya röst A.I. låter precis som en riktig person
- IBMs A.I. Mayflower-skeppet korsar Atlanten och du kan se det live
- Forskare använder A.I. att skapa artificiell mänsklig genetisk kod
- Smart ny A.I. systemet lovar att träna din hund när du är borta från hemmet
Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.