Nvidia의 반년마다 GPU 기술 컨퍼런스(GTC) 일반적으로 AI의 발전에 중점을 두지만, 올해 Nvidia는 AI의 엄청난 증가에 대응하고 있습니다. 채팅GPT 새로운 GPU를 탑재했습니다. 그 중 가장 중요한 것은 Nvidia의 H100 GPU 두 개를 함께 연결하여 ChatGPT와 같은 LLM(대형 언어 모델)을 배포하는 H100 NVL입니다.
H100은 새로운 GPU가 아닙니다. 엔비디아가 발표했다 1년 전 GTC에서는 Hopper 아키텍처를 자랑하며 다양한 작업에서 AI 추론 속도를 높일 것을 약속했습니다. 94GB의 대용량 메모리를 갖춘 새로운 NVL 모델은 LLM을 대규모로 배포할 때 가장 잘 작동하며 이전 세대의 A100에 비해 최대 12배 빠른 추론을 제공한다고 합니다.
이러한 GPU는 ChatGPT와 같은 모델의 핵심입니다. Nvidia와 Microsoft는 최근 수천 개의 ChatGPT를 훈련하는 데 A100 GPU가 사용되었습니다., 이는 제작에 5년이 넘게 걸린 프로젝트입니다.
관련된
- ChatGPT: 알아야 할 최신 뉴스, 논란, 팁
- ChatGPT에 대한 DAN 프롬프트는 무엇입니까?
- Google Bard는 이제 말할 수 있지만 ChatGPT를 압도할 수 있습니까?
H100 NVL은 Nvidia 고대역폭 NVLink 상호 연결을 통해 두 개의 H100 GPU를 결합하여 작동합니다. 이는 현재 H100 GPU에서 이미 가능합니다. 실제로 NVLink를 통해 최대 256개의 H100을 함께 연결할 수 있지만 이 전용 장치는 소규모 배포를 위해 제작되었습니다.
추천 동영상
이것은 무엇보다도 비즈니스를 위해 제작된 제품이므로 H100 NVL이 현지 Micro Center 선반에 나타날 것이라고 기대하지 마십시오. 그러나 Nvidia는 기업 고객이 올해 하반기쯤에 이를 볼 수 있을 것으로 예상한다고 말합니다.
Nvidia는 H100 NVL 외에도 AI 생성 비디오를 지원하기 위해 특별히 제작된 L4 GPU도 발표했습니다. Nvidia는 AI 생성 비디오에 대해 CPU보다 120배 더 강력하고 99% 더 나은 에너지 효율성을 제공한다고 말합니다. Nvidia는 생성된 AI 비디오 외에도 GPU가 비디오 디코딩 및 트랜스코딩 기능을 제공하며 증강 현실에 활용할 수 있다고 밝혔습니다.
Nvidia는 Google Cloud가 L4를 통합한 최초의 업체 중 하나라고 말합니다. Google은 오늘 후반에 Vertex AI 플랫폼을 통해 고객에게 L4 인스턴스를 제공할 계획입니다. Nvidia는 GPU가 나중에 Lenovo, Dell, Asus, HP, Gigabyte 및 HP를 포함한 파트너로부터 제공될 것이라고 말했습니다.
편집자의 추천
- 최고 저자는 AI 회사에 자신의 작품 사용에 대한 대가를 요구합니다.
- GPT-4: ChatGPT를 부끄럽게 만드는 AI 챗봇을 사용하는 방법
- Wix는 ChatGPT를 사용하여 전체 웹사이트를 빠르게 구축하도록 돕습니다.
- ChatGPT 제조사 OpenAI, 소비자 보호법 위반으로 FTC 조사에 직면
- ChatGPT 웹사이트 트래픽이 처음으로 감소했습니다.
당신의 라이프스타일을 업그레이드하세요Digital Trends는 독자들이 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 빠르게 변화하는 기술 세계를 계속해서 살펴볼 수 있도록 도와줍니다.