NVIDIA no se conforma con ser una de las grandes ganadoras del auge de la inteligencia artificial (IA). La compañía estadounidense sigue apostando por seguir desarrollando su modelo de negocio más allá de las soluciones gráficas orientadas a los usuarios individuales como nosotros. Es decir, apunta a consolidar su papel de tecnológica líder en el campo de la computación de alto rendimiento (HPC).
Las señales sobre lo que marca el ritmo de la evolución de NVIDIA como compañía nos llegan directamente desde Taipéi, en Taiwán, donde se está desarrollando el COMPUTEX, uno de los eventos tecnológicos más importantes del año. Allí, el máximo responsable de la compañía estadounidense, Jen-Hsun Huang, ha anunciado importantes novedades relacionadas a la IA que no han pasado desapercibidas.
NVIDIA Grace Hopper Superchip, en camino
No es ningún secreto que vivimos en un mundo que demanda centros de datos cada vez más potentes. Ahora bien, como estos complejos sistemas informáticos están constituidos por una amplia variedad de componentes, hay varios caminos para mejorar su rendimiento. Uno de ellos, por ejemplo, es optimizar la comunicación entre estos mediante la implementación de arquitecturas de interconexión mejoradas.
En este sentido, NVIDIA ha iniciado la producción del Grace Hopper Superchip GH200, una solución que combina la CPU con arquitectura Grace (con 72 núcleos ARM y hasta 480 GB de memoria LPDDR5X) con la mastodónticas GPU H100 con arquitectura Hopper (con 528 núcleos Tensor y 80 GB de memoria HBM3). Todo esto, interconectado con el sistema NVLink-C2C de alta eficiencia del mismo fabricante.
Cabe señalar el prometedor avance de del mencionado “superchip”. Si estableciéramos una configuración de una CPU Grace con una GPU H100 conectadas con PCIe tradicional, el rendimiento generalizado sería sustancialmente inferior que esta propuesta combinada. NVLink-C2C, según promete el fabricante, permite aumentar el ancho de banda entre la CPU y la GPU unas siete veces en comparación con PCIe.
Pero esto no es todo, como decimos, la apuesta por el mundo HPC de NVIDIA parece ir en serio. Así, los dirigidos por Jen-Hsun han anunciado la implementación de Grace Hopper Superchip GH200 en solución DGX a la que han llamado “supercomputador”. Y esta definición tiene sentido, porque no se trata de un nodo estándar de un centro de datos, sino de un auténtico clúster de alto rendimiento.
Estamos hablando del DGX GH200 AI: Grace Hopper, descomunal pieza de alta tecnología (orientada a entrenar "modelos gigantes" de IA) que se compone de 256 superchips GH200 interconectados mediante el sistema NVLink, que promete hasta 48 veces más ancho de banda que la misma configuración basada en la generación anterior. ¿El resultado? 144 TB de memoria combinada y 1 ExaFLOP de rendimiento.
NVIDIA ya ha perfilado a quienes serán los principales clientes del sistema DGX GH200 AI: Grace Hopper. En concreto, Google, Meta y Microsoft están esperando para empezar a utilizar el sistema cuando este disponible para tareas de IA a finales de este año. Aunque claro, en teoría también podría acceder a él cualquier otra compañía capaz de pagarlo. Y si bien no sabemos su precio, ciertamente no será nada barato.
Imágenes: NVIDIA
via Robótica e IA - Xataka https://ift.tt/TDLa6UC
No hay comentarios:
Publicar un comentario