Nvidia Jetson AGX Xavier to komputer zaprojektowany, aby uczynić roboty mądrzejszymi

Obraz: Nvidia

Nvidia chce być mózgiem pomagającym nowej generacji autonomicznych robotów w wykonywaniu ciężkich zadań. Właśnie temu ma służyć nowo zaprezentowany moduł Jetson AGX Xavier.

Jako system na chipie, Jetson Xavier wpisuje się w plan Nvidii mający na celu pokonanie ograniczeń obliczeniowych prawa Moore’a poprzez oparcie się na grafice i architekturach głębokiego uczenia się, a nie na procesorze. Tak twierdzi Deepu Talla, wiceprezes Nividii i dyrektor generalny ds. maszyn autonomicznych, at w środę konferencja prasowa w nowej siedzibie firmy Endeavour w Santa Clara w Kalifornii wieczór. Firma pozyskała wielu partnerów i planuje moduł Xavier do zasilania dronów dostawczych, pojazdy autonomiczne, obrazowanie medyczne i inne zadania wymagające głębokiego uczenia się i sztucznej inteligencji możliwości.

Polecane filmy

Nvidia twierdzi, że najnowszy moduł Xavier jest w stanie wykonać aż 32 biliony operacji na sekundę (TOPS). W połączeniu z najnowszymi możliwościami sztucznej inteligencji rdzenia Tensor, znajdującymi się w architekturze Volta firmy Nvidia, Xavier jest w stanie osiągnąć dwudziestokrotnie większą wydajność niż starsze

TX2 z 10-krotnie lepszą efektywnością energetyczną. Daje to Xavierowi moc serwera klasy stacji roboczej w module mieszczącym się w dłoni, stwierdziła Talla.

Powiązany

  • Naukowcy twierdzą, że przełomowe rozwiązania w zakresie sztucznej inteligencji mogą nastąpić dzięki mózgom pszczół
  • Procesory graficzne Nvidia odnotowują ogromny wzrost cen i ogromny popyt ze strony sztucznej inteligencji
  • Feud EVGA z Nvidią daje nowe możliwości producentom procesorów graficznych

Podczas demonstracji w Deepstream Talla pokazała, że ​​podczas gdy starszy Jetson TX2 może przetwarzać dwa filmy w rozdzielczości 1080p, każdy z czterema głębokimi sieci neuronowych, opracowany przez firmę chip Tesla o wysokiej wydajności obliczeniowej zwiększa tę liczbę do 24 filmów, każdy w rozdzielczości 720p rezolucja. Xavier posunął się jeszcze dalej, a Talla pokazał, że chipset jest w stanie przetworzyć trzydzieści filmów, każdy w rozdzielczości 1080p.

Moduł Xavier składa się z ośmiordzeniowego procesora Carmel ARM64, 512 rdzeni Tensor CUDA, podwójnego NVDLA akcelerator głębokiego uczenia się oraz wiele silników do przetwarzania wideo, które pomagają autonomicznym robotom przetwarzać obrazy i filmy lokalnie. W prezentacji Talla stwierdziła, że ​​nowy moduł Xavier pokonuje wcześniejszą platformę Jetson TX2 i komputer z procesorem Intel Core i7 w połączeniu z kartą Nvidia GeForce GTX 1070 karta graficzna zarówno pod względem wydajności wnioskowania AI, jak i efektywności wnioskowania AI.

Niektórzy partnerzy programistyczni Nvidii nadal budują autonomiczne maszyny w oparciu o starsze rozwiązania Nvidii, takie jak platforma TX2 lub procesor graficzny GTX. Niektórzy z tych partnerów obejmują autonomiczne wózki dostawcze, drony przemysłowe i rozwiązania dla inteligentnych miast. Wiele osób twierdzi jednak, że roboty te można łatwo zaktualizować do nowej platformy Xavier, aby wykorzystać zalety tej platformy.

Natomiast natywne przetwarzanie obrazów i filmów na pokładzie pomoże autonomicznym maszynom szybciej się uczyć i przyspieszać Sztuczną inteligencję można wykorzystać do wykrywania chorób w zastosowaniach obrazowania medycznego, można ją również wykorzystać w przestrzeni wirtualnej rzeczywistości. Live Planet VR, które tworzy kompleksową platformę i rozwiązanie kamery z 16 obiektywami do transmisji strumieniowej filmów VR na żywo, wykorzystuje Rozwiązanie Nvidii umożliwiające przetwarzanie grafiki i klipów razem w kamerze bez konieczności stosowania żadnego pliku eksport.

„W przeciwieństwie do innych rozwiązań, całe przetwarzanie odbywa się w aparacie” – powiedział Jason Garcia, menedżer społeczności Live Planet. Obecnie firma korzysta z karty GTX Nvidii do łączenia klipów wideo z różnych obiektywów i zmniejszania zniekształceń obrazu z obiektywów szerokokątnych.

Talla powiedziała, że ​​rozwiązania do wideokonferencji mogą również wykorzystywać sztuczną inteligencję do poprawy współpracy poprzez podłączenie głośnika i przełączanie kamer, aby wyróżnić osobę mówiącą lub tablicę. Partner Slightech zaprezentował jedną z wersji tego rozwiązania, pokazując, jak można wdrożyć rozpoznawanie twarzy i śledzenie w robocie teleobecności. Do zasilania tego robota firma Slightech wykorzystała czujnik kamery Mynt 3D, technologię AI i technologię Jetson firmy Nvidia. Nvidia współpracuje z ponad 200 000 programistów, czyli pięciokrotnie więcej niż wiosną 2017 r., aby pomóc Jetsonowi w większej liczbie zastosowań, od opieki zdrowotnej po produkcję.

Moduł Jetson AGX jest teraz dostarczany z cena wywoławcza 1099 dolarów za sztukę przy zakupie w partiach po 1000 sztuk.

„Programiści mogą wykorzystać Jetson AGX Xavier do budowy autonomicznych maszyn, które rozwiążą niektóre problemy najtrudniejszych problemów świata i pomóc w transformacji szerokiego zakresu branż” – stwierdziła Nvidia w przygotowanym wydaniu oświadczenie. „Oczekuje się, że w nadchodzących latach na rynek trafią miliony.”

Aktualizacja 20 grudnia: W artykule pierwotnie wspomniano, że Live Planet VR ma system 18 soczewek. Zaktualizowaliśmy nasze raporty, aby uwzględnić fakt, że Live Planet VR korzysta z konfiguracji z 16 obiektywami.

Zalecenia redaktorów

  • Roboty zabezpieczające mogą pojawić się w pobliskiej szkole
  • Superkomputer Nvidii może rozpocząć nową erę ChatGPT
  • Google Bard vs. ChatGPT: który chatbot AI jest lepszy?
  • Minikomputer Jetson Orin Nano firmy Nvidia za 200 dolarów jest 80 razy szybszy niż poprzednia wersja
  • Przedstawiłem mój absurdalny pomysł na start-up robotowi VC

Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.