AMD ha pronosticado que el mercado de los chips para aplicaciones de inteligencia artificial (IA) tendrá un volumen de 400.000 millones de dólares en 2027. Y aspira a hacerse con un buen trozo de este pastel, aunque no va a tenerlo fácil. NVIDIA acapara actualmente cerca del 80% de este mercado y nada parece indicar que su posición de dominio vaya a verse alterada a corto plazo. De hecho, su negocio va viento en popa, como confirman sus resultados económicos durante el tercer trimestre del año fiscal en curso.
Lisa Su, la directora general de AMD, ha presentado hace apenas unas horas dos GPU para IA de las que llevamos oyendo hablar ya varios meses, pero que hasta ahora no habían visto la luz oficialmente: la GPU Instinct MI300X y la APU Instinct MI300A. Sus especificaciones, como estamos a punto de comprobar, son muy prometedoras, pero hay algo que permite a estos chips desmarcarse de sus competidores: su diseño modular en el que los chiplets llevan la voz cantante.
Los 'chiplets' son la mejor baza de AMD para competir con NVIDIA
Los chiplets son unos viejos conocidos. Llegaron a los procesadores de propósito general de AMD de la mano de la arquitectura Zen y cada uno de ellos aglutina una parte de la lógica de la CPU. En la práctica son varios circuitos integrados diferentes que se comunican mediante enlaces de alto rendimiento y que están cohesionados en un mismo empaquetado. Esta es la receta utilizada por la compañía liderada por Lisa Su para cocinar sus últimos y más ambiciosos chips para IA.
Una plataforma de ocho GPU Instinct MI300X tiene según AMD un rendimiento de hasta 10,4 petaflops en operaciones FP16
La GPU Instinct MI300X es una auténtica bestia. Al menos lo es sobre el papel. Y es que aglutina nada menos que ocho chiplets de memoria HBM3 que suman 192 GB y otros ocho con litografía de 5 nm que contienen la lógica de la GPU. Este hardware convive con 256 Mbytes de caché de tipo Infinity y está siendo empaquetado empleando la tecnología híbrida más avanzada que tiene AMD ahora mismo. Todo esto suena bien, pero lo más impactante es que estos chips han sido diseñados para trabajar en grupos de ocho.
Una plataforma de ocho GPU Instinct MI300X para aplicaciones de inteligencia artificial generativa suma un total de 1,5 TB de memoria HBM3 y tiene, según AMD, un rendimiento de hasta 10,4 petaflops en operaciones FP16. Es escalofriante, aunque no debemos pasar por alto que esto es lo que nos promete esta firma, por lo que será interesante comprobar si en un escenario de uso real su rendimiento es el esperado. En cualquier caso, AMD asegura que un chip Instinct MI300X es entre 1,3 y 2,4 veces más potente que una GPU H100 de NVIDIA dependiendo del escenario de uso al que los enfrentemos.
Por otro lado, las características de la APU Instinct MI300A también son impactantes. Es importante que no pasemos por alto que se trata de una APU, por lo que combina la lógica de una CPU y una GPU en el mismo encapsulado. Apila ocho chiplets HBM3 sobre los que contienen la lógica de la GPU y la CPU, aunque tienen menos capacidad que los de la GPU Instinct MI300X, por lo que se conforma con 128 GB. AMD asegura que el rendimiento de esta APU también es superior al del chip H100 de NVIDIA, pero la compañía liderada por Jensen Huang ya ha presentado su GPU H200. Y llegará en 2024. Las espadas están en alto.
Imagen de portada: AMD
Más información: AMD
via Robótica e IA - Xataka https://ift.tt/f9A0Ghy
No hay comentarios:
Publicar un comentario