jueves, 6 de febrero de 2020

"Tenemos 7 nm para rato": entrevista a Manuel Ujaldón, que le da un sobresaliente a los Tensor Core y un bien a los RT Cores

Manuel Ujaldón, CUDA fellow desde 2012, Deep Learning Ambassador de NVIDIA y profesor de la Universidad de Málaga, ya es un habitual en Xataka. Tras entrevistarle en 2012, 2016 y 2018 para analizar el segmento de las tarjetas gráficas, vuelve con nosotros para tratar de descubrirnos cuál es el estado actual de un mercado en constante ebullición.

Lo hace contestando a nuestras preguntas sobre el verdadero potencial del raytracing y su hipotético soporte en consolas, la carrera por los nanómetros, la revolución de los Tensor Cores o la posible competencia que plantea Intel en un mercado tan especializado como este.

"Mi valoración de los Tensor Cores es un 9, la de los RT Cores un 6"

Cuando entrevistamos a Ujaldón en 208 aún no habían aparecido las NVIDIA RTX 2000. Lo harían poco después, en agosto de aquel año, y aunque se rumoreaba que había cambios en la estrategia de NVIDIA y él mismo apuntó a gráficas "muldisciplinares".

Ujaldon1 Manuel Ujaldón, profesor de la Universidad de Málaga (UMA) y Deep Learning Ambassador de NVIDIA.

Esa predicción se cumplió: de las generaciones anteriores, mucho más orientadas al gaming, hemos pasado a unas RTX que sin duda aportan mejoras en ese sentido, pero sobre todo destacaban por la introducción de los Tensor Cores para el ámbito del machine learning y los RT Cores para el trazado de rayos.

Al preguntarle por su valoración de esta familia, Ujaldón nos señalaba que "NVIDIA diversifica cada vez más, tratando de reinventarse una y otra vez. Los Tensor Cores son hijos del Deep Learning (DL), y los RT Cores, nietos". De hecho hacía un repaso histórico muy gráfico:

"Para entender toda la secuencia hay que remontarse al año 2012, cuando AlexNet, la red neuronal profunda (DNN) arrasó en el ImageNet Challenge. Sus dos compañeros de viaje a partir de entonces serían GPU y Big Data. NVIDIA ya tenía más del 70% del mercado de GPUs, el avión que desde el cielo miraba a las CPUs en tierra, pero el viento de cola del hardware es el software y las aplicaciones. Con las DNNs y el Big Data llegó un vendaval. En NVIDIA supieron verlo, tienen esa capacidad visionaria. En aquel 2012, las acciones de NVIDIA cotizaban a 12 dólares. Hoy superan los 250. ¿Que cómo lo valoro yo? El mercado ha dictado sentencia."

El ámbito de aplicación del RT es escaso, y en ese sentido, no justifica tanto sobreprecio para una GPU

Sin embargo para Ujaldón la experiencia es un grado. "Los Tensor Cores llegaron casi un par de años antes que los RT Cores", explicaba. "Ambos constituyen hardware especializado para operaciones matriciales que admiten gran paralelización, un terreno que NVIDIA aceleraba como nadie gracias a CUDA".

El problema para el avance de las redes neuronales y el trazado de rayos es que a pesar de que basarse en algoritmos de hace más de cuatro décadas, su ejecución en procesadores de propósito general (CPUs) no ayuda demasiado. "La aceleración en GPU ha revolucionado ambos", destacaba Ujaldón, "pero no puedes compararlos. El ámbito de aplicación del RT es escaso, y en ese sentido, no justifica tanto sobreprecio para una GPU. En cambio,hay GPUs con Tensor Cores que superan los 10.000 euros, y multitud de aplicaciones reales que amortizan ese gasto".

Para este experto la revolución de la familia de NVIDIA ha sido mucho más relevante en un sentido que en otro. Como decía él mismo, "en resumen, mi valoración de los Tensor Cores es un 9.A los RT Cores les concedo un 6".

La carrera de los nanómetros

AMD ya ha comenzado a fabricar la litografía de 7 nanómetros en sus chips, pero NVIDIA se limitó a usar procesos de 14 nm en sus RTX 2000. Se rumorea que darán el salto a los 7 nm en la nueva generación —los rumores sobre las inminentes RTX 3000 están ahí—, pero Ujaldón nos explica cómo ese baile de nanómetros es actualmente más confuso de lo que parece.

Nanometros

De hecho, señala, "las distancias nanométricas que publica cada fabricante ya no significan una misma cosa. Además, esculpir en silicio surcos de 7 nm. con haces de luz es una maravilla de la ingeniería nada fácil de describir, por lo que nunca podríamos unificar esas cifras ni compararlas".

Aunque durante décadas sí se han podido usar "números homologables entre fabricantes" de nanómetros, nos confesaba que eso ahora se ha convertido en "una guerra de cifras interesadas". Para él lo importante es cómo ha cambiado el mercado de los semiconductores y cómo se ha centralizado:

"Hace 20 años había una treintena de fabricantes de chips. Hace 10 años, esta cifra se había reducido a 8. Hace 3 años, quedaban sólo 4: Intel, TSMC, Samsung y Global Foundries (GF), que aunque es el menos conocido, ha fabricado todo lo de IBM y AMD hasta hace poco. Pero una planta de fabricación de 7 nm. ya supera un coste de 10.000 millones de euros, lo que obligó a GF en 2018 a desistir en la construcción de nuevas plantas. Si a eso sumamos que Samsung no fabrica los chips CPU y GPU de los que hablamos aquí, nos quedan sólo dos contendientes: Intel y TSMC, que es quien ahora fabrica los chips de AMD."

Con sólo tres supervivientes de esta carrera evolutiva, tampoco descartaría una amnistía entre Intel, TSMC y Samsung, puesto que el nuevo escenario dibuja un oligopolio

TSMC ha ganado enteros al añadir como clientes a la propia AMD y a Apple, pero la cosa no le ha ido tan bien a Intel, que "ya no saca músculo financiero a Samsung y TSMC como hacía en el pasado", algo que se ha notado con las dificultades que ha tenido para dar el salto al proceso litográfico de 10 nm que se ha retrasado notablemente. Hay una sorpresa en este mercado: una empresa europea.

"Para completar nuestro análisis debo presentar a la única empresa europea de este gremio: La holandesa ASML, que sin ser tan conocida es quizá la más interesante, porque produce la maquinaria de litografía, es decir, la que genera los haces de luz nanométricos con los que se esculpen los chips. La última generación de estas máquinas, EUV (Extreme Ultra Violet), fue adquirida por TSMC y Samsung en Junio de 2019, mientras que Intel no la tendrá hasta 2021, que por tanto será cuando arranque su nodo de 7 nm. Entretanto, NVIDIA y AMD llevan una delantera de dos años de la mano de TSMC. Pero un nodo de 7 nm. gestado en 2022 y con la experiencia que acumula Intel es mejor que el nodo actual de 7nm. de TSMC, y aquí ASML ha salido al rescate de Intel elaborando una métrica reciente (la “fórmula ASML”) que conjuga diversos parámetros técnicos para puntuar los transistores de todas las firmas a las que suministra. Digamos que con esta fórmula se pasa del “cómo fabricas” al “cuantos transistores te caben por mm2”, y tras utilizar esa métrica, nos queda un empate entre todos los nodos que están en producción actualmente: El de 7 nm. en TSMC y Samsung, y el de 10 nm. en Intel."

Lo que Ujaldón tiene claro es que "tenemos 7 nm para rato". En primer lugar, porque es necesario amortizar el enorme coste de esas plantas de producción. Y en segundo, porque como él mismo destaca, "no se vislumbra una mejora de EUV". Aunque hay algunos avances en técnicas como Gate-All-Around (GAA) como sustituto de los actuales finFET, la cosa parece que podría tardar bastante. De hecho para Ujaldón hay una posibilidad futura interesante:

"Con sólo tres supervivientes de esta carrera evolutiva, tampoco descartaría una amnistía entre Intel, TSMC y Samsung, puesto que el nuevo escenario dibuja un oligopolio con una fuerte barrera de entrada para otras firmas, y en este tipo de escenarios, ponerse de acuerdo para regular el mercado significa que ganan los tres. Lo hemos visto ya tantas veces en otros gremios… Este desenlace tiene además sentido tras el empate técnico que hemos narrado antes, ya que ninguna firma tiene que hacer concesiones. Estamos en un punto de equilibrio como nunca antes y puede hacerse como cuando se juega al ajedrez: Se firman tablas y acaba la lucha."

Intel como competidor, criptos en desaceleración y la GTX 1660 como compra recomendada

Una de las dudas que plantea un mercado tan asentado como este es si Intel logrará competir con AMD y NVIDIA. La firma comenzó a trabajar en sus propias gráficas dedicadas hace dos años, y en el CES presentaron un primer avance de su arquitectura Xe, pero quisimos preguntarle a Manuel Ujaldón si creía que esta empresa podría competir con el actual duopolio.

Intel Xe La Intel Xe DG1 ha sido la primera gráfica dedicada presentada por la empresa en dos décadas, pero para Ujaldón será difícil que este modelo o sus sucesores puedan competir con AMD o NVIDIA.

Su respuesta era clara: "difícilmente. Hasta ahora, siempre que lo intentó fracasó, y cada vez la diferencia en el know-how es mayor con las dos grandes. Intel ha hecho buenos productos en las GPUs integradas dentro del chipset de la placa base", pero no parece que nuestro experto confíe en que el salto a soluciones de gama alta como las que ahora ofrecen AMD o NVIDIA esté al alcance de Intel.

También quisimos preguntarle por el segmento de las criptodivisas que en junio de 2018 seguía dando mucho que hablar. La situación se ha tranquilizado ahora, y quisimos saber si este segmento ya no interesa.

"No puedes esperar un desembolso importante por parte de un cliente que sólo pretende jugar y al que ya le llegan multitud de efectos visuales sin ese incentivo"

Para Ujaldón las criptodivisas forman parte de "un mercado muy especulativo". De hecho se aventuraba con su particular predicción del futuro de este segmento tan confuso y errático:

"Las criptomonedas seguirán dando bandazos y la pregunta tendrá una respuesta diferente cada año que me la hagas, siempre vinculada a su cotización. Igual que subieron mucho y presionaron los stocks de GPUs, ahora han bajado y eso ha sido bueno para el mercado, porque los precios se regulan de forma más saludable para todos. A Nvidia tampoco le interesa un mercado inestable, ni factores desestabilizadores. El bitcoin es un efecto lateral para la empresa, nunca pertenecerá al core de su actividad. Además, las criptomonedas están cada vez más asociadas a negocios oscuros e ilegales, no son buenas compañeras de viaje."

La acogida de las RTX 2000 cuando por fin estuvieron disponible fue relativamente fría: los elevados precios de estas gráficas —algo que suavizaron las RTX 2060generó muchas críticas que para Ujaldón fueron "acertadas". Este experto explicaba cómo el trazado de rayos no me parece ninguna revolución. Es un proceso muy paralelo, que se presta a grandes aceleraciones siguiendo el patrón de CUDA, al igual que el Deep Learning".

Para él el problema es que "el trazado de rayos es una tentación que cae por su propio peso. No es su aceleración lo que falla, sino su repercusión. CUDA transformó para siempre la supercomputación. Los Tensor Cores han revolucionado la inteligencia artificial. Cualquiera de estas dos áreas tienen multitud de empresas dispuestas a pagar por transformar su modelo de negocio. El trazado de rayos se dirige a un mercado mucho más limitado, y también más modesto. No puedes esperar un desembolso importante por parte de un cliente que sólo pretende jugar y al que ya le llegan multitud de efectos visuales sin ese incentivo".

Afortunadamente la situación se hizo más llevadera con las gráficas de la familia Turing pero con el apellido GTX: las GTX 1650 y 1660 en sus distintas variantes desactivaban los RT Cores, algo que para Ujaldón fue un acierto al "dar libertad al cliente para que eligiese". De hecho, señalaba, "la mejor relación calidad/precio se da en la GPU que tiene el sufijo “60”. Sucedió con la 960 en Maxwell, la 1060 en Pascal, y la 2060 en Turing, hasta que ha llegado la 1660 para desbancarla".

"El trazado de rayos ha tratado de crear una necesidad que no tenemos"

Si ha habido una opción de las RTX 2000 que NVIDIA ha querido destacar, ese ha sido el soporte del trazado de rayos (ray-tracing) que aporta un fotorrealismo espectacular en algunos ámbitos del contenido: las sombras, los reflejos o la iluminación son gracias a esta técnica mucho más detalladas y realistas, algo que no obstante impacta en la tasa de fotogramas por segundo.

Rtx2

Para Manuel Ujaldón aquí NVIDIA "ha tratado de crear una necesidad que no tenemos. Las empresas de Silicon Valley son grandes maestras en esta materia, pero eso no significa que vayan a conseguirlo siempre".

Ese trazado de rayos es también una de las grandes promesas de las futuras consolas: tanto los datos que tenemos de las Xbox Series X como la PS5 dejan entrever el soporte del trazado de rayos. Sus GPUs están fabricadas por AMD, que hasta ahora no había ofrecido productos con soporte de esta tecnología, lo que hace plantearnos el alcance que pueda tener en consolas.

"No creo que con Ray Tracing podamos hacer cosas mucho más novedosas que lo que ya hemos visto"

Para Ujaldón "AMD no tiene nada que demostrar, y tampoco creo que le cueste desarrollar un chip competitivo en este ámbito". Será interesante ver qué tipo de soporte ofrece este fabricante en esas consolas, pero para Ujaldón el futuro del trazado de rayos no parece demasiado brillante: "no creo que con Ray Tracing podamos hacer cosas mucho más novedosas que lo que ya hemos visto".

Los Tensor Cores sí son una revolución

La otra gran apuesta de NVIDA con su familia RTX es la de sus Tensor Cores, unos núcleos especializados que permiten acometer proyectos de Deep Learning de una forma mucho más potente. Para Ujaldón ese es el verdadero as en la manga de NVIDIA: "Igual que acabo de decirte que con Ray Tracing lo hemos visto casi todo, te digo ahora que con Deep Learning aún no hemos visto casi nada"

Tensorcores2 La apuesta por los Tensor Cores ha permitido convertir a las gráficas de la familia RTX en valiosas aliadas de aquellos que trabajan en el ámbito del deep learning.

Su interés en este área es patente. Como él mismo confiesa acertó al enseñar aceleración en GPU desde el nacimiento de CUDA, y tras impartir más de 100 cursos en una veintena de países ahora es instructor de Deep Learning en NVIDIA y se ha convertido en uno de los llamados Deep Learning Ambassadors.

Para este experto "la nave de NVIDIA está orientada en la dirección del Deep Learning. El congreso estrella que organiza Nvidia en Silicon Valley se llama GTC (Graphics Technology Conference). Este año lo han rebautizado como “GTC: The Premier AI Conference”. El mensaje es bastante descarado".

La empresa lleva tiempo declarando a la inteligencia artificial y al deep learning como su apuesta de futuro, y aunque Ujaldón destaca que "no van a descuidar el mercado de los gráficos, donde más innova la compañía es en otras áreas".

"Igual que acabo de decirte que con Ray Tracing lo hemos visto casi todo, te digo ahora que con Deep Learning aún no hemos visto casi nada"

De hecho, al preguntarle por el streaming de videojuegos como tendencia futura y el potencial interés de NVIDIA en este mercado, su respuesta era singular ya que no creía que "la industria del ocio vaya a ser el motor de los beneficios de estas empresas, no al menos como lo fue en sus primeros años de andadura".

En la última conferencia de Jensen Huang, por ejemplo, se habló poco de las RTX y las GTX, y en lugar de eso mencionaron nuevos vocablos como DGX (Deep Learning Supercomputing Platform), HGX (Hyperscale Supercomputing Platform), EGX (Edge Supercomputing Platform) o AGX (Autonomous Supercomputing Platform).

De hecho Ujaldón nos recordaba que "este mismo mes de febrero comienzo a impartir en la UMA los cursos de formación del Deep Learning Institute de NVIDIA, y he dedicado mucho tiempo a su preparación. Con los cursos de CUDA me dí un palizón similar, pero ya los han recibido casi 5.000 estudiantes e investigadores, así que lo considero un esfuerzo amortizado".

Con este curso Ujaldón espera ofrecer "una repercusión aún mayor", ya que con ellos "NVIDIA expide una certificación oficial que acredita aptitudes muy solicitadas" en puestos con gran demanda y gran remuneración en el mercado actual: AI Chief Scientist, Big Data Developer, AI Bots Manager, por ejemplo.

Aquí este experto los recomendaba y animaba a cualquier interesado a cursarlos. "Basta con que esté familiarizado con C y Python a niveles muy básico. El resto se canaliza a través de herramientas de Nvidia que se usan gratuitamente en la nube junto a sus GPUs más potentes a través de Amazon Web Services. Comenzamos la primera edición el Lunes 17, y la segunda, el Jueves 27 de febrero". Ahí lo dejamos.



via Magazine - robotica-e-ia https://ift.tt/375vnzA

No hay comentarios:

Publicar un comentario