Microsoft explica cómo miles de GPU Nvidia construyeron ChatGPT

ChatGPT saltó a la fama viral durante los últimos seis meses, pero no surgió de la nada. De acuerdo a un entrada de blog publicada por Microsoft El lunes, OpenAI, la compañía detrás de ChatGPT, se acercó a Microsoft para construir una infraestructura de inteligencia artificial en miles de GPU de Nvidia hace más de cinco años.

La asociación entre OpenAI y Microsoft ha llamado mucho la atención recientemente, especialmente después de que Microsoft hiciera una inversión de 10 mil millones de dólares en el grupo de investigación que está detrás de herramientas como ChatGPT y DALL-E 2. Sin embargo, la asociación comenzó hace mucho tiempo, según Microsoft. Desde entonces, Informes Bloomberg que Microsoft ha gastado "varios cientos de millones de dólares" en el desarrollo de la infraestructura para soportar ChatGPT y proyectos como Chat de Bing.

Tarjeta gráfica Hopper H100.

Gran parte de ese dinero se destinó a Nvidia, que ahora está a la vanguardia del hardware informático necesario para entrenar modelos de IA. En lugar de GPU para juegos como las que encontraría en una lista de

mejores tarjetas graficas, Microsoft buscó las GPU de nivel empresarial de Nvidia, como la A100 y la H100.

Relacionado

  • ChatGPT: las últimas noticias, controversias y consejos que necesitas saber
  • ¿Qué es un mensaje DAN para ChatGPT?
  • Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?

No es tan simple como conseguir tarjetas graficas juntos y entrenando un modelo de lenguaje. Como explica Nidhi Chappell, jefe de producto de Microsoft para Azure: “No se trata de comprar un montón de GPU, conectarlas y empezarán a funcionar juntas. Hay mucha optimización a nivel de sistema para obtener el mejor rendimiento, y eso viene con mucha experiencia a lo largo de muchas generaciones”.

Vídeos recomendados

Con la infraestructura en su lugar, Microsoft ahora está abriendo su hardware a otros. La compañía anunció el Lunes en una publicación de blog separada que ofrecería sistemas Nvidia H100 “bajo demanda en tamaños que van desde ocho hasta miles de GPU Nvidia H100”, entregados a través de la red Azure de Microsoft.

la popularidad de ChatGPT ha disparado a Nvidia, que lleva varios años invirtiendo en IA a través de hardware y software. AMD, el principal competidor de Nvidia en tarjetas gráficas para juegos, ha intentado avanzar en este espacio con aceleradores como el Instinct MI300.

Según Greg Brockman, presidente y cofundador de OpenAI, entrenar ChatGPT no habría sido posible sin la potencia proporcionada por Microsoft: “Codiseñar supercomputadoras con Azure ha sido crucial para escalar nuestras exigentes necesidades de capacitación en IA, haciendo que nuestra investigación y alineación funcionen en sistemas como ChatGPT. posible."

Se espera que Nvidia revele más sobre futuros productos de IA durante la GPU Technology Conference (GTC). con la presentación principal comienza el 21 de marzo. Microsoft está ampliando su hoja de ruta de IA a finales de esta semana, con una presentación centrada en el futuro de la IA en el lugar de trabajo programada para el 16 de marzo.

Recomendaciones de los editores

  • Los principales autores exigen un pago a las empresas de inteligencia artificial por utilizar su trabajo
  • GPT-4: cómo utilizar el chatbot de IA que avergüenza a ChatGPT
  • Wix usa ChatGPT para ayudarte a crear rápidamente un sitio web completo
  • OpenAI, fabricante de ChatGPT, se enfrenta a una investigación de la FTC sobre las leyes de protección al consumidor
  • El tráfico del sitio web ChatGPT ha caído por primera vez

Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.