Von der Grand Theft Auto-Franchise bis zur Fülle verfügbarer Spider-Man-TitelViele Videospiele ermöglichen es Ihnen, eine dreidimensionale Darstellung einer realen (oder nur schwach fiktionalisierten) Stadt zu erkunden. Allerdings ist es nicht einfach, solche Stadtlandschaften zu schaffen. Die Aufgabe erfordert Tausende von Stunden Computermodellierung und sorgfältige Referenzstudien, bevor die Spieler die Möglichkeit haben, durch die fertige virtuelle Welt zu laufen, zu fahren oder zu fliegen.
Dass es aber auch anders geht, zeigt eine beeindruckende neue Tech-Demo von Nvidia. Auf der NeurIPS-Konferenz für künstliche Intelligenz in Montreal zeigte das Technologieunternehmen, wie maschinelle Lerntechnologie durch einfaches Vorführen eine überzeugende virtuelle Stadt erzeugen kann Autokamera Videos. Diese Videos wurden von selbstfahrenden Autos während einer einwöchigen Testfahrt durch Städte aufgenommen. Der Trainingsprozess des neuronalen Netzwerks dauerte etwa eine Woche mit Nvidias Tesla V100-GPUs auf einem DGX-1-Supercomputersystem. Sobald die K.I. Nachdem wir gelernt hatten, was es sah, und herausgefunden hatten, wie man es in farbcodierte Objekte segmentieren konnte, wurden die virtuellen Städte mit der Unreal Engine 4 generiert.
Empfohlene Videos
„Eines der Haupthindernisse für Entwickler besteht darin, dass die Erstellung von Inhalten für virtuelle Welten teuer ist.“ Bryan Catanzaro, Vizepräsident für angewandte Deep-Learning-Forschung bei Nvidia, sagte gegenüber Digital Trends. „Es kann Dutzende von Monaten dauern, bis Künstler eine interaktive Welt für Spiele oder VR-Anwendungen schaffen. Wir haben eine neue Möglichkeit zum Rendern von Inhalten mithilfe von Deep Learning geschaffen – mithilfe von K.I. das aus der realen Welt lernt – was Künstlern und Entwicklern dabei helfen könnte, virtuelle Umgebungen zu viel geringeren Kosten zu erstellen.“
Forschung bei NVIDIA: Die erste interaktive KI-gerenderte virtuelle Welt
Catanzaro sagte, dass es unzählige potenzielle reale Anwendungen für diese Technologie gibt. Beispielsweise könnte es Benutzern ermöglichen, Avatare in Spielen anzupassen, indem sie mit ihrem Mobiltelefon ein kurzes Video aufnehmen und es dann hochladen. Damit ließen sich auch amüsante Videos erstellen, in denen die Gesichtszüge des Nutzers auf die Bewegung eines anderen Körpers abgebildet werden. (Wie im obigen Video zu sehen ist, hatte Nvidia großen Spaß daran, einen seiner Entwickler dazu zu bringen, das auszuführen Gangnam Style tanzen.)
„Architekten könnten es [zusätzlich] nutzen, um virtuelle Entwürfe für ihre Kunden zu rendern“, fuhr Catanzaro fort. „Mit dieser Technik könnte man Roboter oder selbstfahrende Autos in virtuellen Umgebungen trainieren. In all diesen Fällen würden die Kosten und der Zeitaufwand für die Erstellung virtueller Welten gesenkt.“
Er fügte hinzu, dass dies noch ein Anfang der Forschung sei und es „einige Jahre“ dauern werde, bis es ausgereift und in kommerziellen Anwendungen verfügbar sei. „Aber ich freue mich, dass es die Art und Weise, wie Computergrafiken erstellt werden, grundlegend verändern könnte“, sagte Catanzaro.
Empfehlungen der Redaktion
- Nvidias Supercomputer könnte eine neue Ära von ChatGPT einläuten
- Nvidias neue Stimme A.I. klingt wie eine echte Person
- IBMs K.I. Das Mayflower-Schiff überquert den Atlantik und Sie können es live verfolgen
- Wissenschaftler nutzen K.I. künstlichen menschlichen genetischen Code zu erstellen
- Clevere neue K.I. Das System verspricht, Ihren Hund zu trainieren, während Sie nicht zu Hause sind
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.