Nvidia está tomando algunas notas de los entusiastas fabricantes de PC en un esfuerzo por reducir la huella de carbono de los centros de datos. La compañía anunció dos nuevas GPU refrigeradas por líquido durante su Computex 2022 Keynote, pero no llegarán a su próxima PC para juegos.
En cambio, el H100 (anunciado en GTC a principios de este año) y las GPU A100 se enviarán como parte de los racks de servidores HGX hacia finales de año. La refrigeración líquida no es nueva para el mundo de las supercomputadoras, pero los servidores de los centros de datos convencionales tradicionalmente no han podido acceder a este método de refrigeración eficiente (no sin intentar improvisar). una GPU para juegos en un servidor, es decir).
Además de los racks de servidores HGX, Nvidia ofrecerá las versiones refrigeradas por líquido del H100 y A100 como tarjetas PCIe con ranura. El A100 llegará en la segunda mitad de 2022 y el H100 a principios de 2023. Nvidia dice que "al menos una docena" de fabricantes de sistemas tendrán estas GPU disponibles para fin de año, incluidas opciones de Asus, ASRock y Gigabyte.
Relacionado
- Nvidia no quiere que sepas sobre su controvertida nueva GPU
- Nvidia desafía el rechazo y defiende 8 GB de VRAM en GPU recientes
- Nvidia puede lanzar 3 nuevas GPU y son malas noticias para AMD
Los centros de datos representan alrededor del 1% del uso total de electricidad en el mundo, y casi la mitad de esa electricidad se gasta únicamente en enfriar todo lo que hay en el centro de datos. A diferencia de la refrigeración por aire tradicional, Nvidia dice que sus nuevas tarjetas refrigeradas por líquido pueden reducir el consumo de energía en aproximadamente un 30% y al mismo tiempo reducir el espacio en rack en un 66%.
Vídeos recomendados
En lugar de un sistema todo en uno como el que encontraría en una GPU para juegos refrigerada por líquido, el A100 y el H100 utilizan una conexión líquida directa a la propia unidad de procesamiento. Todo, excepto las líneas de alimentación, está oculto en la carcasa de la GPU, que a su vez sólo ocupa una ranura PCIe (a diferencia de las dos de las versiones refrigeradas por aire).
Los centros de datos analizan la efectividad del uso de energía (PUE) para medir el uso de energía, esencialmente una relación entre la cantidad de energía que consume un centro de datos y la cantidad de energía que utiliza la informática. Con un centro de datos refrigerado por aire, Equinix tenía un PUE de aproximadamente 1,6. La refrigeración líquida con las nuevas GPU de Nvidia lo redujo a 1,15, lo que está notablemente cerca del objetivo de 1,0 PUE que buscan los centros de datos.
Además de una mejor eficiencia energética, Nvidia afirma que la refrigeración líquida ofrece beneficios para la conservación del agua. La compañía dice que cada año se evaporan millones de galones de agua en los centros de datos para mantener en funcionamiento los sistemas refrigerados por aire. La refrigeración líquida permite que el agua recircule, convirtiendo "un residuo en un activo", según el jefe de infraestructura de borde de Equinix, Zac Smith.
Aunque estas tarjetas no aparecerán en los enormes centros de datos administrados por Google, Microsoft y Amazon (que probablemente ya utilicen refrigeración líquida), eso no significa que no tendrán un impacto. Los bancos, las instituciones médicas y los proveedores de centros de datos como Equinix comprometen una gran parte de los centros de datos actuales y todos podrían beneficiarse de las GPU refrigeradas por líquido.
Nvidia dice que esto también es solo el comienzo de un viaje hacia centros de datos neutros en carbono. En un comunicado de prensa, el director senior de marketing de productos de Nvidia, Joe Delaere, escribió que la empresa planea "apoyar refrigeración líquida en nuestras GPU de centro de datos de alto rendimiento y nuestras plataformas Nvidia HGX en el futuro previsible”.
Recomendaciones de los editores
- Probé la nueva función RTX de Nvidia y solucionó la peor parte de los juegos de PC
- Por qué la nueva GPU de Nvidia funciona peor que los gráficos integrados
- La supercomputadora de Nvidia puede iniciar una nueva era de ChatGPT
- La nueva herramienta Guardrails de Nvidia soluciona el mayor problema con los chatbots de IA
- Nvidia construyó una enorme GPU dual para impulsar modelos como ChatGPT
Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.