Nvidia wil het brein zijn om de volgende generatie autonome robots te helpen het zware werk te doen. De nieuw aangekondigde Jetson AGX Xavier-module wil precies dat doen.
Als systeem-op-een-chip maakt Jetson Xavier deel uit van Nvidia’s weddenschap om de rekenlimieten van de wet van Moore te overwinnen door te vertrouwen op graphics en deep learning-architecturen, in plaats van op de processor. Dat zegt Deepu Talla, Nividia’s vice-president en algemeen directeur van autonome machines, bij een mediabriefing op woensdag op het nieuwe Endeavour-hoofdkwartier van het bedrijf in Santa Clara, Californië avond. Het bedrijf heeft een aantal partners op een rij gezet en overweegt de Xavier-module voor het aandrijven van drones, autonome voertuigen, medische beeldvorming en andere taken waarvoor deep learning en kunstmatige intelligentie nodig zijn mogelijkheden.
Aanbevolen video's
Nvidia beweert dat de nieuwste Xavier-module tot 32 biljoen bewerkingen per seconde (TOPS) kan leveren. Gecombineerd met de nieuwste kunstmatige intelligentiemogelijkheden van de Tensor Core binnen de Volta-architectuur van Nvidia, is Xavier in staat twintig keer de prestaties te leveren van de oudere modellen.
TX2 met 10 keer betere energie-efficiëntie. Dit geeft Xavier de kracht van een server van werkstationklasse in een module die past in de grootte van je hand, zei Talla.Verwant
- Doorbraken op het gebied van AI zouden via de hersenen van bijen kunnen komen, zeggen wetenschappers
- Nvidia GPU's zien een enorme prijsstijging en een enorme vraag van AI
- De vete van EVGA met Nvidia geeft GPU-makers nieuwe opties
In een Deepstream-demonstratie liet Talla zien dat de oudere Jetson TX2 weliswaar twee 1080p-video's kan verwerken, elk met vier diepe neurale netwerken verhoogt de krachtige Tesla-chip van het bedrijf dat aantal tot 24 video’s, elk op 720p oplossing. Xavier gaat nog een stap verder en Talla liet zien dat de chipset dertig video's kon verwerken, elk met een resolutie van 1080p.
De Xavier-module bestaat uit een acht-core Carmel ARM64-processor, 512 CUDA Tensor Cores, dubbele NVDLA deep-learning accelerator en meerdere motoren voor videoverwerking om autonome robots te helpen beelden te verwerken en video's lokaal. In een presentatie beweerde Talla dat de nieuwe Xavier-module het eerdere Jetson TX2-platform en een Intel Core i7-computer in combinatie met een Nvidia GeForce GTX 1070 verslaat. grafische kaart in zowel AI-inferentieprestaties als AI-inferentie-efficiëntie.
Sommige ontwikkelaarspartners van Nvidia bouwen nog steeds autonome machines op basis van oudere Nvidia-oplossingen zoals het TX2-platform of een GTX GPU. Sommige van deze partners omvatten zelfrijdende bezorgkarren, industriële drones en slimme stadsoplossingen. Velen beweren echter dat deze robots eenvoudig kunnen worden geüpgraded naar het nieuwe Xavier-platform om te profiteren van de voordelen van dat platform.
Terwijl de native verwerking van afbeeldingen en video's autonome machines zal helpen sneller te leren en te versnellen AI kan worden gebruikt om ziekten op te sporen in medische beeldvormingstoepassingen, maar kan ook worden gebruikt in de virtual reality-ruimte. Live Planet VR, dat een end-to-end platform en een camera-oplossing met 16 lenzen creëert om VR-video's live te streamen, maakt gebruik van Nvidia's oplossing om de afbeeldingen en clips allemaal in de camera te verwerken zonder dat er een bestand nodig is export.
“In tegenstelling tot andere oplossingen gebeurt alle verwerking op de camera”, zegt Jason Garcia, communitymanager van Live Planet. Momenteel gebruikt het bedrijf de GTX-kaart van Nvidia om de videoclips van de verschillende lenzen aan elkaar te naaien en de beeldvervorming van de groothoeklenzen te verminderen.
Talla zei dat oplossingen voor videoconferenties ook AI kunnen gebruiken om de samenwerking te verbeteren door de spreker aan te pakken en van camera te wisselen om de spreker of het whiteboard te benadrukken. Partner Slightech liet één versie hiervan zien door te laten zien hoe gezichtsherkenning en tracking kunnen worden geïmplementeerd op een telepresence-robot. Slightech gebruikte zijn Mynt 3D-camerasensor, AI-technologie en Nvidia's Jetson-technologie om deze robot aan te drijven. Nvidia werkt samen met meer dan 200.000 ontwikkelaars, vijf keer zoveel als in het voorjaar van 2017, om Jetson in meer toepassingen te krijgen, variërend van gezondheidszorg tot productie.
De Jetson AGX-module wordt nu meegeleverd een vanafprijs van $ 1.099 per eenheid bij aankoop in batches van 1.000 eenheden.
“Ontwikkelaars kunnen Jetson AGX Xavier gebruiken om de autonome machines te bouwen die een aantal van de problemen zullen oplossen 's werelds moeilijkste problemen aan te pakken en een breed scala aan industrieën te helpen transformeren', zei Nvidia in een voorbereide toespraak stelling. “Er zullen naar verwachting de komende jaren miljoenen op de markt komen.”
Bijgewerkt op 20 december: In dit artikel werd oorspronkelijk vermeld dat Live Planet VR een systeem met 18 lenzen heeft. We hebben onze rapportage bijgewerkt om aan te geven dat Live Planet VR een configuratie met 16 lenzen gebruikt.
Aanbevelingen van de redactie
- Beveiligingsrobots kunnen naar een school bij u in de buurt komen
- De supercomputer van Nvidia kan een nieuw tijdperk van ChatGPT inluiden
- Google Bard vs. ChatGPT: welke is de betere AI-chatbot?
- Nvidia's Jetson Orin Nano-minicomputer van $ 200 is 80 keer sneller dan de vorige versie
- Ik pitchte mijn belachelijke startup-idee voor een robot-VC
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.