domingo, 15 de octubre de 2023

La industria del PC vive tiempos difíciles. HP es sorprendentemente optimista por un motivo: la IA

La industria del PC vive tiempos difíciles. HP es sorprendentemente optimista por un motivo: la IA

Ketan Patel, máximo responsable de la división de PCs y portátiles de HP, lo tiene claro. Está sentado frente a mí y otros dos periodistas de otros países y no parece estar demasiado preocupado.

Debería. El segmento de los PCs  pasa por un momento complicado. Tras un espectacular crecimiento de ventas durante la pandemia —el confinamiento cambió usos y costumbres— los tres últimos trimestres (Q4 2022, Q1 2023, Q2 2023) han sido terribles para la industria.

Patel lo admite sin reservas. La cosa no ha ido bien y tardará en ir mejor, afirma. Y sin embargo, su discurso no es necesariamente pesimista, y de hecho la conversación pronto cambia de tono. Lo hace gracias a esas dos palabras que son la prometida próxima gran revolución de nuestro mundo.

Inteligencia artifical.

Patel lleva toda una vida en HP. Fue responsable de esta unidad de negocio en India antes de dar el salto y gestionarla para todo el mundo, así que sabe de lo que habla. Eso sí: juega con ventaja. Sabe algo que nosotros no, y aunque parece que se muere por decirnos qué es, no puede. No aún. Pero algo sí deja entrever.

Ketan Patel Ketan Patel

En realidad en HP llevan hablando de ello todo el día durante le evento HP Imagine 2023. Antes lo ha hecho Alex Cho, otro de los máximos responsables de esa división, y que durante la conferencia inaugural hizo un guiño similar en el mismo sentido. "Tengo algo aquí", explicó, mostrando parte de un portátil en una bolsa "pero no puedo decir más hasta dentro de unos meses".

Enrique Lores, CEO de HP se ríe, quizás algo incómodo. Este ingeniero español ha llegado a lo más alto de la jerarquía de la empresa, y lo ha hecho tras más de 30 años trabajando en ella. También sabe de lo que habla, y también sabe algo (mucho) que nosotros no sabemos. Alex Cho le mira y le dice "ni siquiera tú esperabas esto, ¿a que no?". No sabemos si lo esperaba pero él ríe, concediendo quizás que le ha gustado el guiño.

Le preguntamos a Ketan Patel por esa revelación. "¿Qué significa?". Y entonces empieza el debate sobre el papel de la IA, y de cómo ellos la ven como un componente esencial en el futuro del PC. Cho y sus colegas han hablado de posibles cambios en la interacción —¿del ratón y teclado a la voz? Quién sabe— pero sobre todo en la forma de aprovechar los modelos de inteligencia artificial.

De la nube al PC

Hoy esos modelos están en la nube y son caros. Al menos, si uno quiere acceder a los últimos avances. Ocurre con ChatGPT Plus o Midjourney en sus versiones más recientes, pero que nos quieran cobrar por usar dichos modelos es normal: el coste asociado a esas peticiones es muy elevado en capacidad de cálculo y, por tanto en consumo energético e incluso de agua.

Los responsables de ChatGPT y Midjourney usan enormes y carísimas infraestructuras. Decenas, cientos e incluso miles de GPUs son responsables de que que ese chatbot responda con aparente solvencia  cualquier pregunta y que la IA generativa de Midjourney cree imágenes alucinantes en apenas unos segundos.

Hacer algo así en un PC es posible, pero no es en absoluto barato. Si cuentas con una gráfica de última generación —una RTX 4090 mejor que una 4080, y una 4080 mejor que una 4070— puedes instalar alguno de los modelos Open Source existentes. Llama 2 es el referente en cuanto a alternativas a ChatGPT, y Stable Diffusion la referencia si quieres generar imágenes en casa. El problema es que el rendimiento de estos modelos no es de momento comparable al de los que son gestionados por empresas como OpenAI.

Salvo que cuentes con los citados equipos con las mejores gráficas de última generación, las respuestas de esos "ChatGPT domésticos" serán exasperantes si uno quiere usar los modelos más competentes (que a menudo son los que mayor número de parámetros manejan).

Con una RTX 4090 y el modelo 30B de Llama 2, uno ronda según algunos benchmarks los 30 tokens por segundo, una cifra más que respetable pero en la que hay que incluir el coste energético: el consumo de dichas gráficas es muy elevado, así que hoy por hoy la solución práctica para el gran público es, sencillamente usar las opciones en la nube, como ChatGPT o Bard.

Para Patel y el resto de responsables de HP, no obstante, el futuro de estos chabots y herramientas de IA no es la nube, sino el PC y el portátil. Aunque no dan detalles, sí dejan claro que igual que Microsoft acaba de anunciar su gran actualización a Windows 11 23 H2 con Windows Copilot, en unos meses veremos una especie de "HP Copilot" que estará integrado en sus PCs y que irá mucho más allá que la propuesta de Microsoft.

"¿Cómo es posible?", pregunto. "Hoy en día puedes hacerlo con una gráfica muy potente, pero no es una solución viable ni práctica para la inmensa mayoría de los usuarios", añado. Ketan Patel sonríe de nuevo, seguro de sí mismo. Está claro que sabe (o cree saber) algo que nosotros no.

Alex Cho Alex Cho Alex Cho, presidente del negocio de Sistemas Personales en HP.

Nos comenta cómo en unos meses lo veremos. Antes de un año, seguro. En HP están desarrollando una solución que no detalla, pero que parece ser esa especie de ChatGPT o Copilot propio. Uno que estará separado del de Microsoft y que será el elemento esencial de esa transformación del concepto de PC a la que han aludido en la conferencia inaugural tanto Alex Cho como Enrique Lores y el resto de los directivos de Microsoft. Para ellos también está claro.

Para ellos, el PC pasará de ser un 'Personal Computer' (ordenador personal) a ser un 'Personal Companion' (asistente personal).

La diferencia es importante, porque estos equipos plantean aprovechar todos los datos que guardamos en nuestros equipos para ayudarnos a trabajar con ellos y facilitarnos todo tipo de tareas. ¿Tienes datos de tus finanzas? Ese asistente podrá crear alertas, resúmenes e incluso recomendaciones. ¿Tienes tu calendario hasta arriba? Esta IA te ayudará a encontrar huecos o reorganizarlo todo mejor. ¿Has creado una lista de futuros sitios que quieres visitar? No hay problema, el asistente te preguntará si quieres que te organice un viaje a alguno de esos destinos y te reserve avión, hotel y restaurantes.

Son tan solo algunos de los ejemplos de esa nueva filosofía "vertical" de la que hablaban Patel y sus colegas, y que se suma a la tradicional visión horizontal y generalista de los PCs: todos sirven para navegar por internet o trabajar con documentos, pero si quieres un enfoque específico, "vertical", el asistente de inteligencia artificial lo proporcionará. Lo hará además de forma totalmente privada y segura: esos datos no van a ninguna nube y el procesamiento es en local, en nuestro PC o portátil, así que todo queda en casa.

La pregunta, claro, es cómo lo hará cuando ahora mismo los requisitos energéticos y de potencia de proceso son tan elevados. Para este directivo la respuesta está en los chips de partners con los que están trabajando. Las NPUs (Neural Processing Units) son el secreto.

Antes las protagonistas eran las CPU y las GPU. Abran paso: llegan las NPU

Ahí es donde surgen las dudas. Apple y sus A17 Bionic y Google con sus Tensor G3 precisamente llevan impulsando este tipo de unidades de proceso en sus SoC móviles desde hace tiempo. Meta y Qualcomm también trabajan en estos avances y anunciaron una alianza en julio de 2023 para llevar la IA de Llama 2 a los móviles, pero aunque la capacidad de estos chips ha aumentado, su aprovechamiento actual se restringe (al menos, en los móviles) al ámbito de la fotografía computacional.

Intel Npu Intel Npu Las nuevas NPU de los Intel Meteor Lake se postulan como pilar de esos futuros "Personal Companion" de los que HP hablaba.

La pregunta es si un procesador dirigido a portátiles y PCs podría lograr precisamente algo así. Es lo que desde luego parece plantear Intel, que este año ha annunciado un prometedor salto cualitativo con los Meteor Lake y sus NPU. Estas "unidades de procesamiento neuronal" no funcionarán necesariamente por su cuenta, y de hecho en Intel revelaron en septiembre cómo serán capaces de combinarse con la CPU y la GPU en todo tipo de escenarios. Su rendimiento y capacidad se han intentado analizar, aunque sin referencias claras es difícil decidir si el salto será tan llamativo como promete Intel.

De hecho, en las pruebas internas con Stable Diffusion v1.5 vieron cómo al ejecutar 20 iteraciones de este motor de IA generativa al usar solo la NPU se tardó 20,7 segundos y se consumieron 10 W. Al hacerlo con la GPU ayudando a la NPU el tiempo bajó a 11,3 segundos, pero se consumieron 30 W. Lo ideal sería poder elegir si queremos realizar la tarea en menos tiempo o consumir menos energía, pero de momento no está claro qué decidirán en este sentido.

Sea como fuere, no parece por tanto que a corto plazo sea posible que una futura iteración del Google Tensor (¿G4, G5?) en un móvil o un Meteor Lake integrado en un portátil pueda ofrecer la capacidad de procesamiento que ofrece una RTX 4090 en tareas de IA.

¿O sí puede? Patel no podía decir más. Y sin embargo, seguía mostrándose seguro.

"En unos meses lo veremos", explica. Por si acaso, avisa: "esta tecnología será la primera generación, y mejorará en sucesivas iteraciones". Y aún así, ahí sigue, aparentemente convencido de que tienen una carta ganadora.

Una que, por lo visto, convertirá nuestros PCs en mucho más de lo que son ahora. Y si eso es así, quizás el PC vuelva a resurgir. Y después —suponemos— irá el smartphone, que también podría acabar dándonos acceso a un ChatGPT o un Stable Diffusion en local.

Uno privado, seguro y que aproveche todo eso que hacemos en el móvil para hacernos la vida más fácil. Si esa promesa se cumple, tendremos desde luego un argumento de lo más llamativo para cambiar de PC.

En Xataka | Cómo tener una IA como ChatGPT local en tu ordenador con GPT4All



via Robótica e IA - Xataka https://ift.tt/sdfum7b

No hay comentarios:

Publicar un comentario