Microsoft wyjaśnia, w jaki sposób tysiące procesorów graficznych Nvidia zbudowało ChatGPT

CzatGPT zyskał sławę w internecie w ciągu ostatnich sześciu miesięcy, ale nie wziął się znikąd. Według wpis na blogu opublikowany przez firmę Microsoft w poniedziałek OpenAI, firma stojąca za ChatGPT, skontaktowała się z Microsoftem w sprawie zbudowania infrastruktury AI na tysiącach procesorów graficznych Nvidia ponad pięć lat temu.

Współpraca OpenAI i Microsoftu zyskała ostatnio duże zainteresowanie, zwłaszcza po tym, jak Microsoft zainwestował 10 miliardów dolarów w grupę badawczą odpowiedzialną za narzędzia takie jak ChatGPT i DALL-E 2. Jednak według Microsoftu współpraca rozpoczęła się dawno temu. Od tego czasu Raport Bloomberga że Microsoft wydał „kilkaset milionów dolarów” na rozwój infrastruktury obsługującej ChatGPT i podobne projekty Czat Binga.

Karta graficzna Hopper H100.

Duża część tych pieniędzy trafiła do firmy Nvidia, która obecnie znajduje się w czołówce producentów sprzętu komputerowego wymaganego do trenowania modeli sztucznej inteligencji. Zamiast procesorów graficznych do gier, jakie można znaleźć na liście

najlepsze karty graficzneMicrosoft zdecydował się na procesory graficzne Nvidii klasy korporacyjnej, takie jak A100 i H100.

Powiązany

  • ChatGPT: najnowsze wiadomości, kontrowersje i wskazówki, które musisz znać
  • Co to jest zachęta DAN dla ChatGPT?
  • Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?

To nie jest tak proste, jak zdobycie karty graficzne razem i ucząc model językowy. Jak wyjaśnia Nidhi Chappell, szef produktu Microsoft Azure: „To nie jest coś, co polega na tym, że kupujesz całą masę procesorów graficznych, łączysz je ze sobą i zaczną ze sobą współpracować. Aby uzyskać najlepszą wydajność, konieczne jest przeprowadzenie wielu optymalizacji na poziomie systemu, a to wiąże się z dużym doświadczeniem zdobytym na przestrzeni wielu pokoleń.

Polecane filmy

Mając już istniejącą infrastrukturę, Microsoft udostępnia teraz swój sprzęt innym. Firma ogłosiła w dniu Poniedziałek w osobnym wpisie na blogu że będzie oferować systemy Nvidia H100 „na żądanie w rozmiarach od ośmiu do tysięcy procesorów graficznych Nvidia H100” dostarczanych za pośrednictwem sieci Microsoft Azure.

Popularność ChatGPT gwałtownie podbiło Nvidię, która od kilku lat inwestuje w sztuczną inteligencję poprzez sprzęt i oprogramowanie. AMD, główny konkurent Nvidii w dziedzinie kart graficznych do gier, próbuje wkroczyć w kosmos dzięki akceleratorom takim jak Instinct MI300.

Według Grega Brockmana, prezesa i współzałożyciela OpenAI, szkolenie ChatGPT nie byłoby możliwe bez mocy zapewnianej przez Microsoft: „Współprojektowanie superkomputerów z platformą Azure miało kluczowe znaczenie dla skalowania naszych wymagających potrzeb szkoleniowych w zakresie sztucznej inteligencji, dzięki czemu nasze badania i dostosowywanie pracowali nad systemami takimi jak ChatGPT możliwy."

Oczekuje się, że Nvidia ujawni więcej na temat przyszłych produktów AI podczas konferencji GPU Technology Conference (GTC). z główną prezentacją rozpoczyna się 21 marca. Jeszcze w tym tygodniu Microsoft poszerza swój plan działania dotyczący sztucznej inteligencji, a prezentację skupiającą się na przyszłości sztucznej inteligencji w miejscu pracy zaplanowano na 16 marca.

Zalecenia redaktorów

  • Czołowi autorzy żądają zapłaty od firm zajmujących się sztuczną inteligencją za korzystanie z ich pracy
  • GPT-4: jak korzystać z chatbota AI, który zawstydza ChatGPT
  • Wix używa ChatGPT, aby pomóc Ci szybko zbudować całą witrynę internetową
  • Twórca ChatGPT, OpenAI, staje przed dochodzeniem FTC w sprawie przepisów dotyczących ochrony konsumentów
  • Ruch na stronie ChatGPT spadł po raz pierwszy

Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.