viernes, 22 de marzo de 2024

Microsoft Copilot abre el melón: para qué necesitamos una NPU si la IA puede ejecutarse en la CPU o la GPU

Microsoft Copilot abre el melón: para qué necesitamos una NPU si la IA puede ejecutarse en la CPU o la GPU

Las unidades de procesamiento neuronal, conocidas habitualmente como NPU por su denominación en inglés (Neural Processing Unit) han llegado a los SoC y las APU para quedarse. Para quedarse definitivamente. La era de la inteligencia artificial (IA) ha comenzado, y precisamente la NPU es una unidad funcional diseñada expresamente para lidiar con los algoritmos de IA en general, y con la IA generativa en particular, de la forma más eficiente posible.

Actualmente Qualcomm, Intel, AMD, Apple, Samsung o Huawei son algunas de las compañías que tienen chips preparados para afrontar una modalidad de procesamiento conocida como computación heterogénea. Estos chips aglutinan tres tipos diferentes de unidades de procesamiento: la CPU, cuyo propósito es general; la GPU, que ante todo se encarga de lidiar con los procesos que requiere la generación de los gráficos; y, por último, la NPU, que, como hemos visto, está especializada en lidiar con los procesos de IA.

La computación heterogénea persigue maximizar el rendimiento y la eficiencia

La arquitectura heterogénea en la que acabamos de indagar reparte la responsabilidad de la ejecución de los procesos entre tres tipos diferentes de unidades de procesamiento con el propósito de maximizar el rendimiento y la eficiencia energética. Este es en definitiva el espíritu de la computación heterogénea en este contexto. No obstante, hay algo muy importante que merece la pena que no pasemos por alto: los procesos de IA pueden ser ejecutados en la CPU, la GPU o la NPU. En cualquiera de ellas. Eso sí, esta elección tiene consecuencias.

La GPU es la unidad de procesamiento mejor dotada para la paralelización masiva

La GPU es la unidad de procesamiento mejor dotada para la paralelización masiva debido a que esta estrategia es la más eficaz a la hora de abordar el proceso de generación de los gráficos. La IA también se beneficia claramente de este enfoque, especialmente si, además, la GPU incorpora unidades específicas para resolver operaciones matriciales que admiten una gran paralelización. En la práctica esta unidad de procesamiento es la que entrega el rendimiento más alto cuando lidia con procesos de IA, pero también es la menos eficiente desde un punto de vista energético.

Motoresai Motoresai Esta diapositiva de Intel resume muy bien el rol de la GPU, la NPU y la CPU en el contexto de la ejecución de los procesos de inteligencia artificial.

Como acabamos de ver, la CPU también puede ejecutar procesos de IA, aunque dado que en su arquitectura prevalece el propósito general y no la paralelización masiva su rendimiento habitualmente será inferior al que nos entrega la GPU al procesar el mismo algoritmo de IA. Y presumiblemente también consumirá menos. Por último, la NPU está específicamente diseñada para lidiar con procesos de IA de la manera más eficiente posible desde un punto de vista energético, aunque su rendimiento al ejecutar procesos exigentes será menor que el de la CPU, y, sobre todo, que el que nos entrega la GPU.

Intel y AMD han reaccionado con más lentitud que otros diseñadores de SoC y APU, pero ambas empresas ya tienen chips que incorporan una NPU. Y en el futuro extenderán esta estrategia a otras líneas de producto. Los procesadores Intel Core Ultra con microarquitectura Meteor Lake incorporan una NPU, y los Ryzen 7040 y 8040 de AMD incorporan una NPU con arquitectura XDNA, que está optimizada expresamente para procesar señales e IA. Esta estrategia da forma al presente. Y, desde luego, también al futuro de la computación de consumo y profesional. Las CPU, GPU y NPU están condenadas a convivir y entenderse. Nosotros, los usuarios, ganamos.

En Xataka | El líder de NVIDIA se moja: ha fijado con mucha precisión la fecha en que estará lista la inteligencia artificial general

En Xataka | China va a ser imbatible en inteligencia artificial. No lo dice cualquiera, lo defiende el director general de Google



via Robótica e IA - Xataka https://ift.tt/2FJzE6e

No hay comentarios:

Publicar un comentario