Microsoft explica como milhares de GPUs Nvidia construíram ChatGPT

Bate-papoGPT alcançou fama viral nos últimos seis meses, mas não surgiu do nada. De acordo com um postagem de blog publicada pela Microsoft na segunda-feira, a OpenAI, empresa por trás do ChatGPT, procurou a Microsoft para construir infraestrutura de IA em milhares de GPUs Nvidia há mais de cinco anos.

A parceria entre OpenAI e Microsoft ganhou muita atenção recentemente, especialmente depois que a Microsoft fez um investimento de US$ 10 bilhões no grupo de pesquisa que está por trás de ferramentas como ChatGPT e DALL-E 2. Porém, a parceria começou há muito tempo, segundo a Microsoft. Desde então, Relatórios Bloomberg que a Microsoft gastou “várias centenas de milhões de dólares” no desenvolvimento da infraestrutura para suportar ChatGPT e projetos como Bate-papo do Bing.

Placa gráfica Hopper H100.

Grande parte desse dinheiro foi para a Nvidia, que agora está na vanguarda do hardware de computação necessário para treinar modelos de IA. Em vez de GPUs para jogos como você encontraria em uma lista de melhores placas gráficas, A Microsoft foi atrás das GPUs de nível empresarial da Nvidia, como A100 e H100.

Relacionado

  • ChatGPT: as últimas notícias, polêmicas e dicas que você precisa saber
  • O que é um prompt DAN para ChatGPT?
  • O Google Bard agora pode falar, mas será que pode abafar o ChatGPT?

Não é tão simples quanto conseguir placas gráficas juntos e treinando um modelo de linguagem, no entanto. Como explica Nidhi Chappell, chefe de produto da Microsoft para Azure: “Isso não é algo que você simplesmente compra um monte de GPUs, conecta-as e elas começarão a trabalhar juntas. Há muita otimização no nível do sistema para obter o melhor desempenho, e isso vem com muita experiência ao longo de muitas gerações.”

Vídeos recomendados

Com a infraestrutura instalada, a Microsoft está agora abrindo seu hardware para terceiros. A empresa anunciou em Segunda-feira em uma postagem separada no blog que ofereceria sistemas Nvidia H100 “sob demanda em tamanhos que variam de oito a milhares de GPUs Nvidia H100”, entregues por meio da rede Azure da Microsoft.

A popularidade de ChatGPT disparou a Nvidia, que há vários anos investe em IA por meio de hardware e software. A AMD, principal concorrente da Nvidia em placas gráficas para jogos, tem tentado avançar no espaço com aceleradores como o Instinct MI300.

De acordo com Greg Brockman, presidente e cofundador da OpenAI, treinar ChatGPT não teria sido possível sem a potência fornecida pela Microsoft: “O co-projeto de supercomputadores com o Azure tem sido crucial para dimensionar nossas exigentes necessidades de treinamento em IA, fazendo com que nossa pesquisa e alinhamento funcionem em sistemas como ChatGPT possível."

Espera-se que a Nvidia revele mais sobre os futuros produtos de IA durante a GPU Technology Conference (GTC). com a apresentação principal começa em 21 de março. A Microsoft está expandindo seu roteiro de IA no final desta semana, com uma apresentação focada no futuro da IA ​​no local de trabalho agendada para 16 de março.

Recomendações dos Editores

  • Os principais autores exigem pagamento de empresas de IA pelo uso de seu trabalho
  • GPT-4: como usar o chatbot AI que envergonha o ChatGPT
  • Wix usa ChatGPT para ajudá-lo a construir rapidamente um site inteiro
  • OpenAI, fabricante do ChatGPT, enfrenta investigação da FTC sobre leis de proteção ao consumidor
  • O tráfego do site ChatGPT caiu pela primeira vez

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.