Nvidia는 ChatGPT와 같은 모델을 구동하기 위해 대규모 듀얼 GPU를 구축했습니다.

Nvidia의 반년마다 GPU 기술 컨퍼런스(GTC) 일반적으로 AI의 발전에 중점을 두지만, 올해 Nvidia는 AI의 엄청난 증가에 대응하고 있습니다. 채팅GPT 새로운 GPU를 탑재했습니다. 그 중 가장 중요한 것은 Nvidia의 H100 GPU 두 개를 함께 연결하여 ChatGPT와 같은 LLM(대형 언어 모델)을 배포하는 H100 NVL입니다.

H100은 새로운 GPU가 아닙니다. 엔비디아가 발표했다 1년 전 GTC에서는 Hopper 아키텍처를 자랑하며 다양한 작업에서 AI 추론 속도를 높일 것을 약속했습니다. 94GB의 대용량 메모리를 갖춘 새로운 NVL 모델은 LLM을 대규모로 배포할 때 가장 잘 작동하며 이전 세대의 A100에 비해 최대 12배 빠른 추론을 제공한다고 합니다.

Nvidia의 H100 NVL이 서버에 설치되고 있습니다.
엔비디아

이러한 GPU는 ChatGPT와 같은 모델의 핵심입니다. Nvidia와 Microsoft는 최근 수천 개의 ChatGPT를 훈련하는 데 A100 GPU가 사용되었습니다., 이는 제작에 5년이 넘게 걸린 프로젝트입니다.

관련된

  • ChatGPT: 알아야 할 최신 뉴스, 논란, 팁
  • ChatGPT에 대한 DAN 프롬프트는 무엇입니까?
  • Google Bard는 이제 말할 수 있지만 ChatGPT를 압도할 수 있습니까?

H100 NVL은 Nvidia 고대역폭 NVLink 상호 연결을 통해 두 개의 H100 GPU를 결합하여 작동합니다. 이는 현재 H100 GPU에서 이미 가능합니다. 실제로 NVLink를 통해 최대 256개의 H100을 함께 연결할 수 있지만 이 전용 장치는 소규모 배포를 위해 제작되었습니다.

추천 동영상

이것은 무엇보다도 비즈니스를 위해 제작된 제품이므로 H100 NVL이 현지 Micro Center 선반에 나타날 것이라고 기대하지 마십시오. 그러나 Nvidia는 기업 고객이 올해 하반기쯤에 이를 볼 수 있을 것으로 예상한다고 말합니다.

Nvidia는 H100 NVL 외에도 AI 생성 비디오를 지원하기 위해 특별히 제작된 L4 GPU도 발표했습니다. Nvidia는 AI 생성 비디오에 대해 CPU보다 120배 더 강력하고 99% 더 나은 에너지 효율성을 제공한다고 말합니다. Nvidia는 생성된 AI 비디오 외에도 GPU가 비디오 디코딩 및 트랜스코딩 기능을 제공하며 증강 현실에 활용할 수 있다고 밝혔습니다.

Nvidia는 Google Cloud가 L4를 통합한 최초의 업체 중 하나라고 말합니다. Google은 오늘 후반에 Vertex AI 플랫폼을 통해 고객에게 L4 인스턴스를 제공할 계획입니다. Nvidia는 GPU가 나중에 Lenovo, Dell, Asus, HP, Gigabyte 및 HP를 포함한 파트너로부터 제공될 것이라고 말했습니다.

편집자의 추천

  • 최고 저자는 AI 회사에 자신의 작품 사용에 대한 대가를 요구합니다.
  • GPT-4: ChatGPT를 부끄럽게 만드는 AI 챗봇을 사용하는 방법
  • Wix는 ChatGPT를 사용하여 전체 웹사이트를 빠르게 구축하도록 돕습니다.
  • ChatGPT 제조사 OpenAI, 소비자 보호법 위반으로 FTC 조사에 직면
  • ChatGPT 웹사이트 트래픽이 처음으로 감소했습니다.

당신의 라이프스타일을 업그레이드하세요Digital Trends는 독자들이 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 빠르게 변화하는 기술 세계를 계속해서 살펴볼 수 있도록 도와줍니다.