Nvidia vuole essere la mente che aiuta la prossima generazione di robot autonomi a svolgere il lavoro pesante. Il modulo Jetson AGX Xavier appena annunciato mira a fare proprio questo.
In quanto system-on-a-chip, Jetson Xavier fa parte della scommessa di Nvidia di superare i limiti computazionali della Legge di Moore facendo affidamento sulla grafica e sulle architetture di deep learning, piuttosto che sul processore. Questo è quanto sostiene Deepu Talla, vicepresidente e direttore generale delle macchine autonome di Nividia mercoledì una conferenza stampa presso la nuova sede centrale dell’azienda Endeavour a Santa Clara, in California sera. L'azienda ha individuato una serie di partner e prevede che il modulo Xavier possa alimentare droni per le consegne, veicoli autonomi, imaging medico e altre attività che richiedono deep learning e intelligenza artificiale capacità.
Video consigliati
Nvidia afferma che l'ultimo modulo Xavier è in grado di fornire fino a 32 trilioni di operazioni al secondo (TOPS). In combinazione con le più recenti capacità di intelligenza artificiale del Tensor Core presenti nell'architettura Volta di Nvidia, Xavier è in grado di offrire prestazioni venti volte superiori al vecchio
TX2 con un’efficienza energetica 10 volte migliore. Ciò offre a Xavier la potenza di un server di classe workstation in un modulo che si adatta alle dimensioni di una mano, ha affermato Talla.Imparentato
- Le scoperte dell’intelligenza artificiale potrebbero arrivare attraverso il cervello delle api, dicono gli scienziati
- Le GPU Nvidia vedono un massiccio aumento dei prezzi e un'enorme domanda da parte dell'intelligenza artificiale
- La faida di EVGA con Nvidia offre nuove opzioni ai produttori di GPU
In una dimostrazione Deepstream, Talla ha dimostrato che mentre il vecchio Jetson TX2 può elaborare due video 1080p, ciascuno con quattro deepstream reti neurali, il chip Tesla ad alte prestazioni dell’azienda aumenta quel numero a 24 video, ciascuno a 720p risoluzione. Xavier si spinge ancora oltre e Talla ha dimostrato che il chipset era in grado di elaborare trenta video, ciascuno con una risoluzione di 1080p.
Il modulo Xavier è costituito da un processore Carmel ARM64 a otto core, 512 CUDA Tensor Core, doppio NVDLA acceleratore di deep learning e motori multipli per l'elaborazione video per aiutare i robot autonomi a elaborare immagini e video localmente. In una presentazione, Talla ha affermato che il nuovo modulo Xavier batte la precedente piattaforma Jetson TX2 e un computer Intel Core i7 accoppiato con una Nvidia GeForce GTX 1070 scheda grafica sia nelle prestazioni di inferenza dell’AI che nell’efficienza dell’inferenza dell’AI.
Alcuni dei partner sviluppatori di Nvidia stanno ancora costruendo macchine autonome basate su soluzioni Nvidia più vecchie come la piattaforma TX2 o una GPU GTX. Alcuni di questi partner includono carrelli per le consegne a guida autonoma, droni industriali e soluzioni per città intelligenti. Tuttavia, molti sostengono che questi robot possano essere facilmente aggiornati alla nuova piattaforma Xavier per sfruttare i vantaggi di tale piattaforma.
Mentre l’elaborazione nativa a bordo di immagini e video aiuterà le macchine autonome ad apprendere più velocemente e ad accelerare il processo L’intelligenza artificiale può essere utilizzata per rilevare malattie nelle applicazioni di imaging medico, ma può anche essere utilizzata nello spazio della realtà virtuale. Live Planet VR, che crea una piattaforma end-to-end e una soluzione di fotocamera a 16 obiettivi per lo streaming live di video VR, utilizza La soluzione di Nvidia per elaborare grafica e clip insieme all'interno della fotocamera senza richiedere alcun file esportazioni.
"A differenza di altre soluzioni, tutta l'elaborazione viene eseguita sulla fotocamera", ha affermato Jason Garcia, community manager di Live Planet. Attualmente, l'azienda utilizza la scheda GTX di Nvidia per unire insieme i video clip dei diversi obiettivi e ridurre la distorsione dell'immagine dagli obiettivi grandangolari.
Talla ha affermato che le soluzioni di videoconferenza possono anche utilizzare l’intelligenza artificiale per migliorare la collaborazione puntando l’oratore e cambiando telecamera per evidenziare la persona che parla o la lavagna. Il partner Slightech ne ha mostrato una versione mostrando come è possibile implementare il riconoscimento e il tracciamento dei volti su un robot di telepresenza. Slightech ha utilizzato il sensore della fotocamera 3D Mynt, la tecnologia AI e la tecnologia Jetson di Nvidia per alimentare questo robot. Nvidia sta collaborando con più di 200.000 sviluppatori, cinque volte il numero registrato nella primavera del 2017, per aiutare Jetson a entrare in più applicazioni che vanno dalla sanità alla produzione.
Il modulo Jetson AGX viene ora spedito con un prezzo iniziale di $ 1.099 per unità se acquistati in lotti da 1.000 unità.
“Gli sviluppatori possono utilizzare Jetson AGX Xavier per costruire macchine autonome che risolveranno alcuni dei problemi i problemi più difficili del mondo e aiutano a trasformare un’ampia gamma di settori”, ha affermato Nvidia in un discorso preparato dichiarazione. “Si prevede che milioni di essi arriveranno sul mercato negli anni a venire”.
Aggiornato il 20 dicembre: Questo articolo originariamente menzionava che Live Planet VR ha un sistema a 18 obiettivi. Abbiamo aggiornato i nostri rapporti per riflettere che Live Planet VR utilizza una configurazione a 16 obiettivi.
Raccomandazioni degli editori
- I robot di sicurezza potrebbero arrivare in una scuola vicino a te
- Il supercomputer di Nvidia potrebbe inaugurare una nuova era di ChatGPT
- Google Bard contro ChatGPT: qual è il miglior chatbot AI?
- Il minicomputer Jetson Orin Nano da $ 200 di Nvidia è 80 volte più veloce della versione precedente
- Ho presentato la mia ridicola idea di startup a un robot VC
Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.