Nvidia Jetson AGX Xavier는 로봇을 더욱 똑똑하게 만들기 위해 설계된 컴퓨터입니다.

click fraud protection
이미지: 엔비디아

Nvidia는 차세대 자율 로봇이 무거운 작업을 수행할 수 있도록 돕는 두뇌가 되기를 원합니다. 새로 발표된 Jetson AGX Xavier 모듈은 바로 이를 목표로 합니다.

시스템 온 칩(System-on-a-Chip)인 Jetson Xavier는 프로세서가 아닌 그래픽 및 딥 러닝 아키텍처에 의존하여 무어의 법칙의 계산 한계를 극복하려는 Nvidia의 노력의 일부입니다. Nividia의 부사장이자 자율 기계 총괄 관리자인 Deepu Talla에 따르면 다음과 같습니다. 수요일 캘리포니아주 산타클라라에 위치한 회사의 새로운 엔데버 본사에서 언론 브리핑 저녁. 이 회사는 여러 파트너를 구성하고 드론에 전력을 공급하는 Xavier 모듈을 구상하고 있습니다. 자율주행차, 의료영상 등 딥러닝과 인공지능이 필요한 업무 능력.

추천 동영상

Nvidia는 최신 Xavier 모듈이 초당 최대 32조 개의 TOPS(Operations Per Second)를 처리할 수 있다고 주장합니다. Nvidia Volta 아키텍처에 포함된 Tensor Core의 최신 인공 지능 기능과 결합된 Xavier는 이전 버전보다 20배 더 뛰어난 성능을 발휘할 수 있습니다. TX2 에너지 효율이 10배 향상되었습니다. Talla는 이를 통해 Xavier가 손 크기에 맞는 모듈에 워크스테이션급 서버의 성능을 제공한다고 말했습니다.

관련된

  • AI 혁신은 꿀벌의 뇌를 통해 이루어질 수 있다고 과학자들은 말합니다.
  • Nvidia GPU는 엄청난 가격 인상과 AI의 엄청난 수요를 보고 있습니다.
  • Nvidia와 EVGA의 불화는 GPU 제조업체에 새로운 옵션을 제공합니다

Deepstream 시연에서 Talla는 구형 Jetson TX2가 2개의 1080p 비디오를 처리할 수 있는 반면 각 비디오에는 4개의 깊이가 있음을 보여주었습니다. 신경망을 사용하여 회사의 고성능 컴퓨팅 Tesla 칩을 사용하면 각각 720p의 동영상이 24개로 늘어납니다. 해결. Xavier는 이를 더욱 발전시켰고 Talla는 칩셋이 각각 1080p 해상도로 30개의 비디오를 처리할 수 있음을 보여주었습니다.

Xavier 모듈은 8코어 Carmel ARM64 프로세서, 512 CUDA Tensor 코어, 듀얼 NVDLA로 구성됩니다. 자율 로봇이 이미지를 처리하고 로컬로 비디오. 프레젠테이션에서 Talla는 새로운 Xavier 모듈이 이전 Jetson TX2 플랫폼과 Nvidia GeForce GTX 1070과 결합된 Intel Core i7 컴퓨터를 능가한다고 주장했습니다. 그래픽 카드 AI 추론 성능과 AI 추론 효율성 모두에서요.

Nvidia의 개발자 파트너 중 일부는 여전히 TX2 플랫폼이나 GTX GPU와 같은 오래된 Nvidia 솔루션을 기반으로 자율 시스템을 구축하고 있습니다. 이러한 파트너 중 일부에는 자율주행 배달 카트, 산업용 드론 및 스마트 시티 솔루션이 포함됩니다. 그러나 많은 사람들은 이러한 로봇을 새로운 Xavier 플랫폼으로 쉽게 업그레이드하여 해당 플랫폼의 이점을 활용할 수 있다고 주장합니다.

이미지와 비디오의 기본 온보드 처리는 자율 기계가 더 빠르게 학습하고 방법을 가속화하는 데 도움이 됩니다. AI는 의료 영상 애플리케이션에서 질병을 감지하는 데 사용될 수 있으며, 가상 현실 공간에서도 사용될 수 있습니다. VR 비디오를 라이브 스트리밍하기 위한 엔드투엔드 플랫폼과 16렌즈 카메라 솔루션을 만드는 Live Planet VR은 파일이 필요 없이 카메라 내부에서 그래픽과 클립을 함께 처리하는 Nvidia의 솔루션 수출.

Live Planet 커뮤니티 관리자인 Jason Garcia는 “다른 솔루션과 달리 모든 처리가 카메라에서 수행됩니다.”라고 말했습니다. 현재 이 회사는 Nvidia의 GTX 카드를 사용하여 다양한 렌즈의 비디오 클립을 함께 연결하고 광각 렌즈의 이미지 왜곡을 줄입니다.

Talla는 화상 회의 솔루션이 AI를 사용하여 발표자를 고정하고 카메라를 전환하여 말하는 사람이나 화이트보드를 강조함으로써 협업을 향상할 수도 있다고 말했습니다. 파트너 Slightech는 텔레프레즌스 로봇에서 얼굴 인식 및 추적을 구현하는 방법을 보여줌으로써 이 버전의 한 가지 버전을 선보였습니다. Slightech는 Mynt 3D 카메라 센서, AI 기술 및 Nvidia의 Jetson 기술을 사용하여 이 로봇을 구동했습니다. Nvidia는 Jetson이 의료에서 ​​제조에 이르기까지 더 많은 애플리케이션에 적용되도록 돕기 위해 200,000명이 넘는 개발자와 협력하고 있습니다. 이는 2017년 봄보다 5배 늘어난 수치입니다.

Jetson AGX 모듈은 이제 다음과 함께 배송됩니다. 시작가 $1,099 1,000개 단위 배치로 구매 시 단위당.

“개발자는 Jetson AGX Xavier를 사용하여 일부 문제를 해결하는 자율 기계를 구축할 수 있습니다. 세계에서 가장 어려운 문제를 해결하고 광범위한 산업을 변화시키는 데 도움이 됩니다.”라고 Nvidia는 준비된 보고서에서 말했습니다. 성명. "앞으로 몇 년 안에 수백만 개가 시장에 나올 것으로 예상됩니다."

12월 20일에 업데이트됨: 이 기사에서는 원래 Live Planet VR에 18개 렌즈 시스템이 있다고 언급했습니다. Live Planet VR이 16개 렌즈 구성을 사용한다는 사실을 반영하여 보고를 업데이트했습니다.

편집자의 추천

  • 보안 로봇이 가까운 학교에 올 수 있다
  • Nvidia의 슈퍼컴퓨터가 ChatGPT의 새로운 시대를 열 것입니다.
  • 구글 바드 vs. ChatGPT: 어떤 AI 챗봇이 더 좋나요?
  • Nvidia의 200달러짜리 Jetson Orin Nano 미니컴퓨터는 이전 버전보다 80배 빠릅니다.
  • 내 우스꽝스러운 스타트업 아이디어를 로봇 VC에게 피칭했다

당신의 라이프스타일을 업그레이드하세요Digital Trends는 독자들이 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 빠르게 변화하는 기술 세계를 계속해서 살펴볼 수 있도록 도와줍니다.