![](/f/a31a2bfede87bdd8900ed565453e4130.jpg)
Nvidia ønsker å være hjernen til å hjelpe neste generasjon av autonome roboter med å gjøre det tunge arbeidet. Den nylig annonserte Jetson AGX Xavier-modulen har som mål å gjøre nettopp det.
Som et system-på-en-brikke er Jetson Xavier en del av Nvidias innsats for å overvinne beregningsgrensene til Moores lov ved å stole på grafikk og dyplæringsarkitekturer, i stedet for prosessoren. Det sier Deepu Talla, Nividias visepresident og daglig leder for autonome maskiner, kl. en mediebriefing i selskapets nye Endeavour-hovedkvarter i Santa Clara, California onsdag kveld. Selskapet har stilt opp en rekke partnere og ser for seg Xavier-modulen for å drive leveringsdroner, autonome kjøretøy, medisinsk bildebehandling og andre oppgaver som krever dyp læring og kunstig intelligens evner.
Anbefalte videoer
Nvidia hevder at den nyeste Xavier-modulen er i stand til å levere opptil 32 billioner operasjoner per sekund (TOPS). Kombinert med de nyeste kunstig intelligens-egenskapene til Tensor Core funnet i Nvidias Volta-arkitektur, er Xavier i stand til tjue ganger ytelsen til den eldre
TX2 med 10 ganger bedre energieffektivitet. Dette gir Xavier kraften til en server i arbeidsstasjonsklassen i en modul som passer i størrelsen på hånden din, sa Talla.I slekt
- AI-gjennombrudd kan komme via hjernen til bier, sier forskere
- Nvidia GPUer ser massiv prisøkning og stor etterspørsel fra AI
- EVGAs feide med Nvidia gir nye alternativer til GPU-produsenter
I en Deepstream-demonstrasjon viste Talla at mens den eldre Jetson TX2 kan behandle to 1080p-videoer, hver med fire dype nevrale nettverk øker selskapets høyytelses Tesla-brikke dette tallet til 24 videoer, hver på 720p Vedtak. Xavier tar det enda lenger, og Talla viste at brikkesettet var i stand til å behandle tretti videoer, hver med 1080p-oppløsning.
Xavier-modulen består av en åttekjernes Carmel ARM64-prosessor, 512 CUDA Tensor Cores, dobbel NVDLA dyplæringsakselerator, og flere motorer for videobehandling for å hjelpe autonome roboter med å behandle bilder og videoer lokalt. I en presentasjon hevdet Talla at den nye Xavier-modulen slår den tidligere Jetson TX2-plattformen og en Intel Core i7-datamaskin kombinert med en Nvidia GeForce GTX 1070 grafikkort i både AI-inferensytelse og AI-inferenseffektivitet.
![](/f/ab49501137f9cbb0521da2d4d874cca8.jpg)
Noen av Nvidias utviklerpartnere bygger fortsatt autonome maskiner basert på eldre Nvidia-løsninger som TX2-plattformen eller en GTX GPU. Noen av disse partnerne inkluderer selvkjørende leveringsvogner, industridroner og smartbyløsninger. Imidlertid hevder mange at disse robotene enkelt kan oppgraderes til den nye Xavier-plattformen for å dra nytte av fordelene ved den plattformen.
Mens innfødt behandling av bilder og videoer vil hjelpe autonome maskiner å lære raskere og akselerere hvordan AI kan brukes til å oppdage sykdommer i medisinske bildebehandlingsapplikasjoner, den kan også brukes i virtuell virkelighet. Live Planet VR, som skaper en ende-til-ende-plattform og en 16-lins kameraløsning for å live streame VR-videoer, bruker Nvidias løsning for å behandle grafikken og klippene sammen alt inne i kameraet uten å kreve noen fil eksport.
"I motsetning til andre løsninger, er all prosessering gjort på kameraet," sa Live Planet-samfunnssjef Jason Garcia. For tiden bruker selskapet Nvidias GTX-kort for å sy sammen videoklippene fra de forskjellige linsene og redusere bildeforvrengning fra vidvinkelobjektivene.
![](/f/1da6c9448537d6d47d885246b38339f6.jpg)
Talla sa at videokonferanseløsninger også kan bruke AI for å forbedre samarbeidet ved å slå høyttaleren og bytte kamera for enten å fremheve personen som snakker eller tavlen. Partner Slightech viste frem en versjon av dette ved å vise hvordan ansiktsgjenkjenning og sporing kan implementeres på en telepresence-robot. Slightech brukte sin Mynt 3D-kamerasensor, AI-teknologi og Nvidias Jetson-teknologi for å drive denne roboten. Nvidia jobber med mer enn 200 000 utviklere, fem ganger så mange fra våren 2017, for å hjelpe Jetson inn i flere applikasjoner, fra helsevesen til produksjon.
Jetson AGX-modulen sendes nå med en startpris på $1.099 per enhet ved kjøp i 1000-enheters batcher.
"Utviklere kan bruke Jetson AGX Xavier til å bygge de autonome maskinene som vil løse noen av problemene verdens tøffeste problemer, og bidra til å transformere et bredt spekter av bransjer," sa Nvidia i en forberedt uttalelse. "Millioner forventes å komme på markedet i årene som kommer."
Oppdatert 20. desember: Denne artikkelen nevnte opprinnelig at Live Planet VR har et 18-linsesystem. Vi har oppdatert rapporteringen vår for å gjenspeile at Live Planet VR bruker en 16-linsekonfigurasjon.
Redaktørenes anbefalinger
- Sikkerhetsroboter kan komme til en skole nær deg
- Nvidias superdatamaskin kan bringe en ny æra av ChatGPT
- Google Bard vs. ChatGPT: hvilken er den beste AI-chatboten?
- Nvidias $200 Jetson Orin Nano minidatamaskin er 80 ganger raskere enn forrige versjon
- Jeg presenterte min latterlige oppstartside til en robot-VC
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.