Nvidia Jetson AGX Xavier é um computador projetado para tornar os robôs mais inteligentes

click fraud protection
Imagem: Nvidia

A Nvidia quer ser o cérebro para ajudar a próxima geração de robôs autônomos a fazer o trabalho pesado. O recém-anunciado módulo Jetson AGX Xavier visa fazer exatamente isso.

Como um sistema em um chip, Jetson Xavier faz parte da aposta da Nvidia para superar os limites computacionais da Lei de Moore, contando com gráficos e arquiteturas de aprendizado profundo, em vez do processador. Isso é de acordo com Deepu Talla, vice-presidente e gerente geral de máquinas autônomas da Nividia, em uma coletiva de imprensa na nova sede da empresa Endeavor em Santa Clara, Califórnia, na quarta-feira noite. A empresa alinhou vários parceiros e prevê o módulo Xavier para alimentar drones de entrega, veículos autônomos, imagens médicas e outras tarefas que exigem aprendizado profundo e inteligência artificial capacidades.

Vídeos recomendados

A Nvidia afirma que o módulo Xavier mais recente é capaz de fornecer até 32 trilhões de operações por segundo (TOPS). Combinado com os mais recentes recursos de inteligência artificial do Tensor Core encontrados na arquitetura Volta da Nvidia, Xavier é capaz de atingir vinte vezes o desempenho do antigo

TX2 com eficiência energética 10 vezes melhor. Isso dá a Xavier o poder de um servidor de classe de estação de trabalho em um módulo que cabe no tamanho da sua mão, disse Talla.

Relacionado

  • Avanços na IA podem vir do cérebro das abelhas, dizem os cientistas
  • GPUs Nvidia apresentam grande aumento de preços e grande demanda de IA
  • A rivalidade da EVGA com a Nvidia oferece novas opções aos fabricantes de GPU

Em uma demonstração do Deepstream, Talla mostrou que embora o antigo Jetson TX2 possa processar dois vídeos 1080p, cada um com quatro profundidades redes neurais, o chip Tesla de computação de alto desempenho da empresa aumenta esse número para 24 vídeos, cada um em 720p resolução. Xavier vai ainda mais longe e Talla mostrou que o chipset era capaz de processar trinta vídeos, cada um com resolução de 1080p.

O módulo Xavier consiste em um processador Carmel ARM64 de oito núcleos, 512 núcleos tensores CUDA, NVDLA duplo acelerador de aprendizado profundo e vários mecanismos para processamento de vídeo para ajudar robôs autônomos a processar imagens e vídeos localmente. Em uma apresentação, Talla afirmou que o novo módulo Xavier supera a plataforma Jetson TX2 anterior e um computador Intel Core i7 acoplado a uma Nvidia GeForce GTX 1070 placa de vídeo tanto no desempenho de inferência de IA quanto na eficiência de inferência de IA.

Alguns dos parceiros desenvolvedores da Nvidia ainda estão construindo máquinas autônomas baseadas em soluções mais antigas da Nvidia, como a plataforma TX2 ou uma GPU GTX. Alguns desses parceiros incluem carrinhos de entrega autônomos, drones industriais e soluções para cidades inteligentes. No entanto, muitos afirmam que esses robôs podem ser facilmente atualizados para a nova plataforma Xavier para aproveitar os benefícios dessa plataforma.

Embora o processamento nativo integrado de imagens e vídeos ajude as máquinas autônomas a aprender mais rápido e a acelerar como A IA pode ser usada para detectar doenças em aplicações de imagens médicas, mas também pode ser usada no espaço de realidade virtual. Live Planet VR, que cria uma plataforma ponta a ponta e uma solução de câmera de 16 lentes para transmissão ao vivo de vídeos VR, usa A solução da Nvidia para processar gráficos e clipes juntos, todos dentro da câmera, sem a necessidade de nenhum arquivo exportações.

“Ao contrário de outras soluções, todo o processamento é feito na câmera”, disse o gerente da comunidade Live Planet, Jason Garcia. Atualmente, a empresa usa a placa GTX da Nvidia para unir os videoclipes das diferentes lentes e reduzir a distorção da imagem das lentes grande angulares.

Talla disse que as soluções de videoconferência também podem usar IA para melhorar a colaboração, fixando o alto-falante e trocando as câmeras para destacar a pessoa que está falando ou o quadro branco. O parceiro Slightech exibiu uma versão disso, mostrando como o reconhecimento facial e o rastreamento podem ser implementados em um robô de telepresença. Slightech usou seu sensor de câmera Mynt 3D, tecnologia AI e tecnologia Jetson da Nvidia para alimentar este robô. A Nvidia está trabalhando com mais de 200 mil desenvolvedores, cinco vezes o número da primavera de 2017, para ajudar a colocar o Jetson em mais aplicações, desde saúde até manufatura.

O módulo Jetson AGX agora é fornecido com um preço inicial de $ 1.099 por unidade quando adquirido em lotes de 1.000 unidades.

“Os desenvolvedores podem usar Jetson AGX Xavier para construir máquinas autônomas que resolverão alguns dos problemas os problemas mais difíceis do mundo e ajudar a transformar uma ampla gama de indústrias”, disse Nvidia em um comunicado preparado declaração. “Espera-se que milhões cheguem ao mercado nos próximos anos.”

Atualizado em 20 de dezembro: Este artigo mencionou originalmente que o Live Planet VR possui um sistema de 18 lentes. Atualizamos nossos relatórios para refletir que o Live Planet VR usa uma configuração de 16 lentes.

Recomendações dos Editores

  • Robôs de segurança podem estar chegando a uma escola perto de você
  • O supercomputador da Nvidia pode trazer uma nova era de ChatGPT
  • Google Bardo vs. ChatGPT: qual é o melhor chatbot de IA?
  • O minicomputador Jetson Orin Nano de US $ 200 da Nvidia é 80 vezes mais rápido que a versão anterior
  • Apresentei minha ideia ridícula de startup para um robô VC

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.