Semestral de Nvidia Conferencia sobre tecnología GPU (GTC) Por lo general, se centra en los avances en IA, pero este año, Nvidia está respondiendo al aumento masivo de ChatGPT con una lista de nuevas GPU. El principal de ellos es el H100 NVL, que une dos de las GPU H100 de Nvidia para implementar modelos de lenguaje grande (LLM) como ChatGPT.
El H100 no es una GPU nueva. Nvidia lo anunció hace un año en GTC, luciendo su arquitectura Hopper y prometiendo acelerar la inferencia de IA en una variedad de tareas. Se dice que el nuevo modelo NVL con sus enormes 94 GB de memoria funciona mejor cuando se implementan LLM a escala, ofreciendo una inferencia hasta 12 veces más rápida en comparación con el A100 de última generación.
Estas GPU están en el corazón de modelos como ChatGPT. Nvidia y Microsoft revelaron recientemente que miles de Se utilizaron GPU A100 para entrenar ChatGPT, que es un proyecto que lleva más de cinco años en desarrollo.
Relacionado
- ChatGPT: las últimas noticias, controversias y consejos que necesitas saber
- ¿Qué es un mensaje DAN para ChatGPT?
- Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?
El H100 NVL funciona combinando dos GPU H100 a través de la interconexión NVLink de alto ancho de banda de Nvidia. Esto ya es posible con las GPU H100 actuales; de hecho, puede conectar hasta 256 H100 juntas a través de NVLink, pero esta unidad dedicada está diseñada para implementaciones más pequeñas.
Vídeos recomendados
Este es un producto creado más que nada para empresas, así que no espere ver el H100 NVL aparecer en el estante de su Micro Center local. Sin embargo, Nvidia dice que los clientes empresariales pueden esperar verlo alrededor de la segunda mitad del año.
Además de la H100 NVL, Nvidia también anunció la GPU L4, que está diseñada específicamente para impulsar videos generados por IA. Nvidia dice que es 120 veces más potente para videos generados por IA que una CPU y ofrece un 99% más de eficiencia energética. Además del video generativo de IA, Nvidia dice que la GPU tiene capacidades de decodificación y transcodificación de video y se puede aprovechar para realidad aumentada.
Nvidia dice que Google Cloud está entre los primeros en integrar L4. Google planea ofrecer instancias L4 a los clientes a través de su plataforma Vertex AI más tarde hoy. Nvidia dijo que la GPU estará disponible a través de socios más adelante, incluidos Lenovo, Dell, Asus, HP, Gigabyte y HP, entre otros.
Recomendaciones de los editores
- Los principales autores exigen un pago a las empresas de inteligencia artificial por utilizar su trabajo
- GPT-4: cómo utilizar el chatbot de IA que avergüenza a ChatGPT
- Wix usa ChatGPT para ayudarte a crear rápidamente un sitio web completo
- OpenAI, fabricante de ChatGPT, se enfrenta a una investigación de la FTC sobre las leyes de protección al consumidor
- El tráfico del sitio web ChatGPT ha caído por primera vez
Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.