Nvidias A.I. Opretter hele virtuelle byer ved at se Dash Cam-videoer

Nvidia

Fra Grand Theft Auto-franchisen til overfloden af ​​tilgængelige Spider-Man titler, giver masser af videospil dig mulighed for at udforske en tredimensionel repræsentation af en ægte (eller tyndt fiktionaliseret) by. Det er dog ikke let at skabe disse bybilleder. Opgaven kræver tusindvis af timers computermodellering og omhyggelige referencestudier, før spillere har chancen for at gå, køre eller flyve gennem den afsluttede virtuelle verden.

En imponerende ny tech-demo fra Nvidia viser, at der dog er en anden måde. Teknologifirmaet, der blev vist frem på NeurIPS kunstig intelligens-konference i Montreal, viste, hvordan maskinlæringsteknologi kan generere en overbevisende virtuel by blot ved at vise den dash cam videoer. Disse videoer blev indsamlet fra selvkørende biler under en uges prøvekørsel rundt i byer. Den neurale netværkstræningsproces tog omkring en uge ved at bruge Nvidias Tesla V100 GPU'er på et DGX-1 supercomputersystem. Når A.I. havde lært, hvad den så på og fundet ud af, hvordan man segmenterer dette i farvekodede objekter, blev de virtuelle byer genereret ved hjælp af Unreal Engine 4.

Anbefalede videoer

"En af de største forhindringer, udviklere står over for, er, at det er dyrt at skabe indhold til virtuelle verdener." Bryan Catanzaro, vicepræsident for anvendt deep learning-forskning hos Nvidia, fortalte Digital Trends. "Det kan tage snesevis af kunstnere måneder at skabe en interaktiv verden til spil eller VR-applikationer. Vi har skabt en ny måde at gengive indhold ved hjælp af dyb læring - ved hjælp af A.I. der lærer af den virkelige verden - hvilket kan hjælpe kunstnere og udviklere med at skabe virtuelle miljøer til en meget lavere pris."

Forskning hos NVIDIA: The First Interactive AI Rendered Virtual World

Catanzaro sagde, at der er utallige potentielle applikationer i den virkelige verden til denne teknologi. For eksempel kunne det give brugere mulighed for at tilpasse avatarer i spil ved at tage en kort video med deres mobiltelefon og derefter uploade den. Dette kan også bruges til at lave underholdende videoer, hvor brugerens funktioner er kortlagt på en anden krops bevægelse. (Som det kan ses i ovenstående video, havde Nvidia det sjovt med at få en af ​​dens udviklere til at udføre Gangnam Style dans.)

"Arkitekter kunne [yderligere] bruge det til at gengive virtuelle designs for deres kunder," fortsatte Catanzaro. "Du kunne bruge denne teknik til at træne robotter eller selvkørende biler i virtuelle miljøer. I alle disse tilfælde ville det sænke omkostningerne og tiden, det tager at skabe virtuelle verdener."

Han tilføjede, at dette stadig er tidlig forskning, og det vil tage "et par år" at modne og rulle ud i kommercielle applikationer. "Men jeg er begejstret for, at det fundamentalt kan ændre den måde, computergrafik skabes på," sagde Catanzaro.

Redaktørernes anbefalinger

  • Nvidias supercomputer kan bringe en ny æra af ChatGPT
  • Nvidias nye stemme A.I. lyder bare som en rigtig person
  • IBMs A.I. Mayflower-skib krydser Atlanterhavet, og du kan se det live
  • Forskere bruger A.I. at skabe kunstig menneskelig genetisk kode
  • Smart ny A.I. systemet lover at træne din hund, mens du er væk hjemmefra

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.