Nvidia chce być mózgiem pomagającym nowej generacji autonomicznych robotów w wykonywaniu ciężkich zadań. Właśnie temu ma służyć nowo zaprezentowany moduł Jetson AGX Xavier.
Jako system na chipie, Jetson Xavier wpisuje się w plan Nvidii mający na celu pokonanie ograniczeń obliczeniowych prawa Moore’a poprzez oparcie się na grafice i architekturach głębokiego uczenia się, a nie na procesorze. Tak twierdzi Deepu Talla, wiceprezes Nividii i dyrektor generalny ds. maszyn autonomicznych, at w środę konferencja prasowa w nowej siedzibie firmy Endeavour w Santa Clara w Kalifornii wieczór. Firma pozyskała wielu partnerów i planuje moduł Xavier do zasilania dronów dostawczych, pojazdy autonomiczne, obrazowanie medyczne i inne zadania wymagające głębokiego uczenia się i sztucznej inteligencji możliwości.
Polecane filmy
Nvidia twierdzi, że najnowszy moduł Xavier jest w stanie wykonać aż 32 biliony operacji na sekundę (TOPS). W połączeniu z najnowszymi możliwościami sztucznej inteligencji rdzenia Tensor, znajdującymi się w architekturze Volta firmy Nvidia, Xavier jest w stanie osiągnąć dwudziestokrotnie większą wydajność niż starsze
TX2 z 10-krotnie lepszą efektywnością energetyczną. Daje to Xavierowi moc serwera klasy stacji roboczej w module mieszczącym się w dłoni, stwierdziła Talla.Powiązany
- Naukowcy twierdzą, że przełomowe rozwiązania w zakresie sztucznej inteligencji mogą nastąpić dzięki mózgom pszczół
- Procesory graficzne Nvidia odnotowują ogromny wzrost cen i ogromny popyt ze strony sztucznej inteligencji
- Feud EVGA z Nvidią daje nowe możliwości producentom procesorów graficznych
Podczas demonstracji w Deepstream Talla pokazała, że podczas gdy starszy Jetson TX2 może przetwarzać dwa filmy w rozdzielczości 1080p, każdy z czterema głębokimi sieci neuronowych, opracowany przez firmę chip Tesla o wysokiej wydajności obliczeniowej zwiększa tę liczbę do 24 filmów, każdy w rozdzielczości 720p rezolucja. Xavier posunął się jeszcze dalej, a Talla pokazał, że chipset jest w stanie przetworzyć trzydzieści filmów, każdy w rozdzielczości 1080p.
Moduł Xavier składa się z ośmiordzeniowego procesora Carmel ARM64, 512 rdzeni Tensor CUDA, podwójnego NVDLA akcelerator głębokiego uczenia się oraz wiele silników do przetwarzania wideo, które pomagają autonomicznym robotom przetwarzać obrazy i filmy lokalnie. W prezentacji Talla stwierdziła, że nowy moduł Xavier pokonuje wcześniejszą platformę Jetson TX2 i komputer z procesorem Intel Core i7 w połączeniu z kartą Nvidia GeForce GTX 1070 karta graficzna zarówno pod względem wydajności wnioskowania AI, jak i efektywności wnioskowania AI.
Niektórzy partnerzy programistyczni Nvidii nadal budują autonomiczne maszyny w oparciu o starsze rozwiązania Nvidii, takie jak platforma TX2 lub procesor graficzny GTX. Niektórzy z tych partnerów obejmują autonomiczne wózki dostawcze, drony przemysłowe i rozwiązania dla inteligentnych miast. Wiele osób twierdzi jednak, że roboty te można łatwo zaktualizować do nowej platformy Xavier, aby wykorzystać zalety tej platformy.
Natomiast natywne przetwarzanie obrazów i filmów na pokładzie pomoże autonomicznym maszynom szybciej się uczyć i przyspieszać Sztuczną inteligencję można wykorzystać do wykrywania chorób w zastosowaniach obrazowania medycznego, można ją również wykorzystać w przestrzeni wirtualnej rzeczywistości. Live Planet VR, które tworzy kompleksową platformę i rozwiązanie kamery z 16 obiektywami do transmisji strumieniowej filmów VR na żywo, wykorzystuje Rozwiązanie Nvidii umożliwiające przetwarzanie grafiki i klipów razem w kamerze bez konieczności stosowania żadnego pliku eksport.
„W przeciwieństwie do innych rozwiązań, całe przetwarzanie odbywa się w aparacie” – powiedział Jason Garcia, menedżer społeczności Live Planet. Obecnie firma korzysta z karty GTX Nvidii do łączenia klipów wideo z różnych obiektywów i zmniejszania zniekształceń obrazu z obiektywów szerokokątnych.
Talla powiedziała, że rozwiązania do wideokonferencji mogą również wykorzystywać sztuczną inteligencję do poprawy współpracy poprzez podłączenie głośnika i przełączanie kamer, aby wyróżnić osobę mówiącą lub tablicę. Partner Slightech zaprezentował jedną z wersji tego rozwiązania, pokazując, jak można wdrożyć rozpoznawanie twarzy i śledzenie w robocie teleobecności. Do zasilania tego robota firma Slightech wykorzystała czujnik kamery Mynt 3D, technologię AI i technologię Jetson firmy Nvidia. Nvidia współpracuje z ponad 200 000 programistów, czyli pięciokrotnie więcej niż wiosną 2017 r., aby pomóc Jetsonowi w większej liczbie zastosowań, od opieki zdrowotnej po produkcję.
Moduł Jetson AGX jest teraz dostarczany z cena wywoławcza 1099 dolarów za sztukę przy zakupie w partiach po 1000 sztuk.
„Programiści mogą wykorzystać Jetson AGX Xavier do budowy autonomicznych maszyn, które rozwiążą niektóre problemy najtrudniejszych problemów świata i pomóc w transformacji szerokiego zakresu branż” – stwierdziła Nvidia w przygotowanym wydaniu oświadczenie. „Oczekuje się, że w nadchodzących latach na rynek trafią miliony.”
Aktualizacja 20 grudnia: W artykule pierwotnie wspomniano, że Live Planet VR ma system 18 soczewek. Zaktualizowaliśmy nasze raporty, aby uwzględnić fakt, że Live Planet VR korzysta z konfiguracji z 16 obiektywami.
Zalecenia redaktorów
- Roboty zabezpieczające mogą pojawić się w pobliskiej szkole
- Superkomputer Nvidii może rozpocząć nową erę ChatGPT
- Google Bard vs. ChatGPT: który chatbot AI jest lepszy?
- Minikomputer Jetson Orin Nano firmy Nvidia za 200 dolarów jest 80 razy szybszy niż poprzednia wersja
- Przedstawiłem mój absurdalny pomysł na start-up robotowi VC
Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.