viernes, 21 de marzo de 2025

Los robots humanoides de 1X afrontan su primera gran prueba en el mundo real: llegarán a cientos de hogares este año

Los robots humanoides de 1X afrontan su primera gran prueba en el mundo real: llegarán a cientos de hogares este año

Desde hace tiempo existe la promesa de que los robots humanoides llegarán a nuestros hogares para acompañarnos en el día a día. Por ahora, lo más parecido a eso que tenemos son las aspiradoras robóticas, que operan de forma autónoma y ya están presentes en muchas casas, aunque tienen mucho de robots y absoludamente nada de humanoide.

Ahora, algo empieza a cambiar. La startup noruega 1X, respaldada por OpenAI, ha anunciado que este mismo año enviará su robot humanoide Neo Gamma a “unos pocos cientos o unos pocos miles” de hogares reales. Lo ha confirmado su CEO, Bernt Børnich, en una entrevista con TechCrunch durante el evento NVIDIA GTC 2025, donde la robótica fue protagonista absoluta. En el mismo evento, Jensen Huang, CEO de NVIDIA, presentó una serie de anuncios relacionados con la inteligencia artificial y la robótica.

Del laboratorio al salón: una prueba que no es menor. No será un lanzamiento comercial. Tampoco una experiencia completamente autónoma. Neo Gamma llegará como parte de un programa de prueba, aún bajo control humano. Será teleoperado por personal especializado, que lo guiará desde centros remotos mientras 1X observa y recopila datos. Pero eso no le resta importancia: es uno de los primeros intentos de llevar un robot humanoide con forma humana y aspiraciones domésticas a un hogar real.

Para Børnich, es un paso fundamental: “Queremos que viva y aprenda entre la gente”, afirmó. La empresa busca entender cómo reacciona el robot en un entorno cotidiano, cómo se adapta a las dinámicas de la vida real. Los datos recogidos servirán para entrenar sus modelos de inteligencia artificial, desarrollados internamente, a pesar del respaldo tecnológico de OpenAI.

Robot Humanoide 1x 1 Robot Humanoide 1x 1

Un robot pensado para convivir: diseño suave, movimientos silenciosos. Neo Gamma evita la apariencia de un robot industrial. En lugar de exponer cables, engranajes y estructuras metálicas, luce un traje claro que disimula su mecánica y le da un aspecto más cercano y menos intimidante. Su diseño busca encajar en el hogar sin desentonar, alejándose de la estética fría y mecánica que suele acompañar a los robots humanoides.

Robot Humanoide 1x 2 Robot Humanoide 1x 2

Está pensado para ayudar en tareas domésticas, como ordenar, limpiar, encargarse de lo rutinario para que los humanos puedan dedicar su tiempo a otras cosas. Sus manos están diseñadas para manipular objetos con precisión y cuidado. Sus movimientos, según 1X, son silenciosos y seguros, alejados del típico zumbido o traqueteo robótico. Además, está equipado con una batería de sensores, cámaras y micrófonos que le permiten leer su entorno en tiempo real.

La robótica entra en casa. Y con ella, nuevas preguntas. Todo avance conlleva nuevas preguntas. Y en este caso, muchas giran en torno a la privacidad. Aunque el control remoto presumiblemente estará regulado por los términos del servicio, no deja de ser una persona, al otro lado de la conexión, la que estará viendo y escuchando lo que ocurre dentro del hogar. No es un detalle menor, y quienes participen en la prueba deberían ser plenamente conscientes de ello.

Imágenes | 1X

En Xataka | Mientras todos miraban a Silicon Valley, Odense tejía su futuro en silencio: hoy se posiciona como capital de la robótica |



via Robótica e IA - Xataka https://ift.tt/xHzrChA

Las previsiones meteorológicas son un coto privado. Un nuevo modelo de IA quiere democratizar la predicción del tiempo

Las previsiones meteorológicas son un coto privado. Un nuevo modelo de IA quiere democratizar la predicción del tiempo

Un grupo de investigadores acaba de plantear una opción de lo más llamativa: democratizar la meteorología. Su nuevo sistema de predicción meteorológica desafía los sistemas tradicionales, muy costosos en recursos computacionales, y hacen uso de la IA para que (casi) cualquiera de nosotros se pueda convertir en un meteorólogo que realice sus propias predicciones personalizadas.

Aardvark Weather. Así se llama un nuevo sistema de predicciones meteorológicas que según sus responsables convertirá a cualquier investigador con un PC de escritorio en un meteorólogo en toda regla. El sistema hace uso de algoritmos de IA y plantea una alternativa a los sistemas convencionales que usan miles de veces más capacidad de cómputo.

Predicciones (casi) caseras. Lo normal es que una plataforma de previsión meteorológica tarde varias horas en procesar un pronóstico. Para ello necesita además supercomputadoras y un equipo de expertos que desarrollan, mantienen y despliegan esos sistemas de previsiones. Aardvark Weather permite entrenar un modelo de IA con datos procedentes de estaciones meteorológicas, satélites, barcos o aviones en todo el mundo para luego hacer predicciones basándose en esos datos.

La investigación. El estudio publicado en Nature esta semana procede de un grupo de investigadores de la Universidad de Cambridge, el Instituto Alan Turing, Microsoft Research y el European Centre for Medium-Range Weather Forecasts (ECMWF). En él explican cómo la predicción meteorológica numérica (NWP por sus siglas en inglés) está siendo reemplazada por el aprendizaje automático y redes neuronales que permiten "mejorar la velocidad y precisión" de la predicción.

Previsiones hiperlocalizadas. Entre otras cosas el sistema permitiría ofrecer previsiones hiperlocalizadas y adaptadas a industrias específicas. Richard Turner, profesor de aprendizaje automático en la Universidad de Cambridge, explicaba en The Guardian cómo este modelo podría usarse para predecir las temperaturas para los cultivos agrícolas de zonas de África o las velocidades del viento para una empresa de energía renovable en Europa.

El tiempo en los próximos ocho días. Turner añade que el modelo podría en el futuro ser capaz de generar previsiones precisas para un rango de hasta ocho días en el futuro, cuando lo normal es que las previsiones precisas solo se puedan garantizar a cinco días.

Rápido como el rayo. Este sistema es capaz de generar una previsión completa a partir de datos observacionales en un segundo al procesarlo en cuatro GPUs NVIDIA A100, cuando normalmente se tardan 1.000 horas-nodo en el modelo HRES del ECMWF.

Ideal para países en desarrollo. Hay regiones en las que este tipo de previsiones son especialmente importantes, y contar con un sistema "personalizado" sería muy útil. Aardvark Weather ofrece esa opción según sus creadores, porque tanto su implantación como su uso es mucho más accesible.

Intentos previos. A finales de 2023 DeepMind precisamente anunció GraphCast, un sistema de predicción meteorológica basado en IA que tenía una operativa hasta 1.000 veces más barata en consumo de energía. Su precisión era de hecho mayor que el mejor de los sistemas actuales, pero no parece que el desarrollo haya sido implantado en la práctica. Hace unos meses los investigadores de DeepMind presentaron su evolución, llamada GenCast, otro sistema de predicción basada en aprendizaje automático que mejoraba a su predecesor y que desde luego compite con Aardvark Weather. Todo apunta por tanto a que este tipo de sistemas están ganando terreno e interés, pero queda por ver si se aplican masivamente.

Imagen | Brian McGowan

En Xataka | La predicción meteorológica va a mejorar mucho en España: AEMET ha invertido 25 millones de euros en ello



via Robótica e IA - Xataka https://ift.tt/6AhBvIX

jueves, 20 de marzo de 2025

Los nuevos modelos de voz de OpenAI ya hablan como agentes de atención al cliente. Su próximo destino: los call centers

Los nuevos modelos de voz de OpenAI ya hablan como agentes de atención al cliente. Su próximo destino: los call centers

Desde principios de año, el objetivo de las grandes tecnológicas ha sido claro: que hablemos con la inteligencia artificial (IA). OpenAI, Microsoft, Google y Meta han ido sumando funciones de voz a sus asistentes. Pero esto parece ser solo el comienzo. La industria avanza a un ritmo frenético y la forma en la que interactuamos con estas herramientas sigue evolucionando.

Dile ‘hola’ a los agentes de voz. La compañía de IA de Sam Altman lleva meses apostando por los agentes de texto con herramientas como Operator o Computer-Using Agents. Sin embargo, OpenAI ya tiene listo si próximo gran movimiento para seguir destacando en la carrera por el desarrollo de la IA: impulsar una nueva y potente generación de agentes de voz.

Nuevos modelos en escena. OpenAI ha anunciado el lanzamiento de nuevos modelos de audio para convertir voz en texto y viceversa. No están en ChatGPT, sino en la API, donde los desarrolladores podrán usarlos para crear agentes de voz. ¿Lo importante? Apuntan a ser mucho más precisos y a llevar la personalización al siguiente nivel.

Los nuevos modelos de OpenAI, construidos sobre GPT-4o y GPT-4o-mini, prometen mejorar a Whisper y a sus anteriores herramientas de texto a voz, que seguirán activas también a través de la API. Pero no es solo cuestión de rendimiento: ahora también pueden modular su tono para sonar, por ejemplo, “como un agente de atención al cliente empático”.

Openai Openai

Destino: los call centers. OpenAI deja bien claro hacia donde apuntan con este lanzamiento. Asegura que “por primera vez, los desarrolladores pueden indicarle al modelo no solo qué decir, sino también cómo decirlo, lo que permite experiencias más personalizadas para casos de uso que van desde la atención al cliente hasta la narración creativa”.

Según OpenAI, esta tecnología permitirá crear “experiencias conversacionales” mucho más ricas. Si tenemos en cuenta que ChatGPT, impulsado por GPT-3.5, llegó en noviembre de 2022, es evidente que el avance ha sido vertiginoso. Y todo apunta a que estos modelos acabarán llegando a los call centers.

Podríamos pensar que en un primer momento las interacciones serán algo limitadas, pero muy por encima de los sistemas de voz actuales. Se alejarán de los asistentes automatizados tradicionales y serán mucho más naturales. Con el tiempo, la línea entre una conversación con una persona y una IA podría volverse casi imperceptible.

Imágenes | Charanjeet Dhiman  | OpenAI

En Xataka | Hemos probado la IA conversacional de Sesame. Es la experiencia más cercana a una "voz humana" que hemos visto

En Xataka | China ha encontrado una estrategia insólita para evitar las zancadillas de EEUU con la IA: apostar por el Open Source



via Robótica e IA - Xataka https://ift.tt/por0MSX

Las búsquedas están cambiando: Claude se suma a la lista de asistentes que desafían a Google con respuestas actualizadas

Las búsquedas están cambiando: Claude se suma a la lista de asistentes que desafían a Google con respuestas actualizadas

Durante las últimas décadas, Google se metió tanto en nuestras vidas que acabamos adoptando el verbo “googlear” como sinónimo de buscar información. Frases como “Dame un segundo que lo googleo” o “¿Lo googleaste?” se volvieron parte del día a día. Pero las cosas están cambiando de la mano de la inteligencia artificial (IA).

Un gigante que empieza a ceder terreno. Google ya no es la única puerta de acceso a la información. Cada vez más usuarios recurren a asistentes impulsados por inteligencia artificial (IA) para encontrar respuestas. Y ahí es donde entran en juego Perplexity, ChatGPT y ahora Claude, que están ganando fuerza.

Por qué deberíamos prestar atención. Que un chatbot de IA pueda buscar en la web marca la diferencia. Sin esa capacidad, sus respuestas se basan solo en los datos con los que fue entrenado, lo que puede dejar fuera información clave o hacer que se quede atrás frente a cambios recientes.

Claude ahora busca en la web. El chatbot de IA de Anthropic ya es capaz de obtener información en tiempo real de Internet. Además, incluye citas directas para que puedas comprobar las fuentes por ti mismo. En lugar de mostrar solo resultados, Claude los procesa y presenta la información en un formato conversacional más fácil de entender.

Escenarios de uso. Ahora que Claude puede buscar en la web, la pregunta es clara: ¿en qué casos esta función marca la diferencia? Sus creadores han identificado varios usos clave en los que el acceso a Internet mejora la experiencia con el chatbot, aunque el verdadero límite lo ponen los usuarios y sus necesidades.

Busqueda Web Busqueda Web
  • Transformación de cuentas y mejora en las tasas de éxito en equipos de ventas mediante conversaciones más informadas con clientes, basadas en el análisis de tendencias del sector y en la identificación de puntos clave.
  • Evaluación de datos de mercado en tiempo real, informes de ganancias y tendencias del sector para optimizar decisiones de inversión y mejorar la precisión de los modelos financieros.
  • Elaboración de propuestas de subvención y revisiones bibliográficas más sólidas gracias al acceso a fuentes primarias en la web, la detección de tendencias emergentes y la identificación de lagunas en la investigación actual.
  • Comparación detallada de productos, precios y reseñas en múltiples fuentes para tomar decisiones de compra más fundamentadas.

De momento, solo en EEUU. La función de búsqueda en la web de Claude ya está disponible para los usuarios de pago en Estados Unidos. No hay una fecha confirmada para su llegada a Europa. Su llegada al Viejo Continente es una incógnita y no está claro si podría verse afectada por regulaciones locales, al igual que ha pasado con Apple y Meta.

La expansión es cuestión de tiempo. Anthropic afirma que la búsqueda web de Claude llegará “próximamente” a más países y a los usuarios del plan gratuito. Esto último tiene sentido ya que la competencia ofrece acceso a la búsqueda sin pasar por caja. No se sabe cuándo se expandirá, pero lo que es innegable es que la competencia en IA no deja de acelerarse.

Imágenes | Anthropic

En Xataka | El modelo o1-pro de ChatGPT Pro es 140 veces más caro que el o3-mini de ChatGPT. Lo que no está claro es que sea mucho mejor



via Robótica e IA - Xataka https://ift.tt/oOdr6Uh

SoftBank pagará 6.500 millones por Ampere. Se acaba de escribir un nuevo capítulo de la guerra por los centros de datos

SoftBank pagará 6.500 millones por Ampere. Se acaba de escribir un nuevo capítulo de la guerra por los centros de datos

A principios del pasado mes de febrero se hizo público el interés del grupo inversor japonés SoftBank en la adquisición del diseñador de chips estadounidense Ampere Computing LLC. Esta última compañía está especializada en el desarrollo de procesadores para servidores, lo que puso ya en aquel momento sobre la mesa la intención de SoftBank de ampliar su negocio en los grandes centros de datos. Tenía sentido en un contexto en el que al auge de la inteligencia artificial (IA) está propiciando que estas instalaciones se multipliquen a toda velocidad.

Apenas un mes y medio después ese movimiento estratégico se ha consolidado. Según la propia Ampere, SoftBank acaba de cerrar su compra. Pagará 6.500 millones de dólares por esta compañía y tendrá una carta más en el presumiblemente próspero negocio de los centros de datos. Este grupo inversor es el propietario de ARM desde 2016; a principios del pasado mes de octubre invirtió 500 millones de dólares en OpenAI; y, además, es una de las compañías que lidera el programa Stargate con el que EEUU persigue sostener su dominio de la IA.

La guerra por los centros de datos para IA ya está en marcha

Las grandes compañías de tecnología que están involucradas en el despliegue de la IA están afrontando inversiones multimillonarias para desarrollar su infraestructura de centros de datos. Microsoft ha confirmado que se gastará 80.000 millones de dólares durante el ejercicio fiscal de 2025. Y Google, 75.000 millones. Por otro lado, el presupuesto del programa Stargate que he mencionado unas líneas más arriba asciende a nada menos que 500.000 millones de dólares. Esta es la tarta de la que espera poder apoderarse SoftBank. Al menos de una buena porción.

Los chips AmpereOne alcanzarán los 256 núcleos durante 2025 y presumiblemente tendrán una eficiencia energética muy competitiva

No obstante, para lograrlo las empresas que controla, o controlará a corto plazo, como Ampere, cuyos procesadores están implementados sobre la tecnología de ARM, tendrán que competir con NVIDIA, Intel, AMD, Google o Amazon. En cualquier caso, los chips AmpereOne, que están siendo fabricados por TSMC en su nodo de 3 nm, alcanzarán los 256 núcleos durante 2025 y presumiblemente tendrán una eficiencia energética muy competitiva. Estas son sus grandes bazas frente a las propuestas de la competencia.

La coyuntura actual está desencadenando algo que merece la pena que no pasemos por alto. Tal y como ha observado Dan O'Brien, el presidente de la consultora estadounidense Futurum, las compañías de tecnología están forjando alianzas estratégicas con el propósito de moldear la industria a su medida y maximizar el rendimiento económico de sus inversiones. Como hemos visto, SoftBank es la propietaria de ARM. Por otro lado, Oracle tiene una participación muy significativa en Ampere, que pronto pertenecerá a SoftBank, y que es cliente de ARM.

Además, todas las compañías en las que acabamos de reparar, SoftBank, ARM, Oracle y OpenAI, participan en el despliegue de la infraestructura que requiere el programa Stargate. En cualquier caso, esta red de dependencias no acaba aquí. Como hemos visto, SoftBank es un inversor importante de OpenAI, y esta última compañía es socia de Oracle y está intentando desarrollar sus propios chips para IA.

Por último, para rizar aún más el rizo, persisten los rumores que defienden que Oracle está interesada en comprar TikTok, una empresa que pertenece a la compañía china ByteDance. SoftBank también tiene una participación importante en esta última. Como sostiene O'Brien en su tuit "todo está conectado [...] Es fascinante ver cómo los titanes de la tecnología moldean la industria".

Imagen | Ampere Computing LLC

Más información | Ampere Computing LLC

En Xataka | La GPU B300 es la nueva bestia de NVIDIA para IA. Y ya sabemos qué prepara para 2026 y 2027



via Robótica e IA - Xataka https://ift.tt/yd0Ov8l

El modelo o1-pro de ChatGPT Pro es 140 veces más caro que el o3-mini de ChatGPT. Lo que no está claro es que sea mucho mejor

El modelo o1-pro de ChatGPT Pro es 140 veces más caro que el o3-mini de ChatGPT. Lo que no está claro es que sea mucho mejor

Lo de pagar 20 dólares al mes por acceder a ChatGPT Plus no parecía demasiado grave. La cosa se comenzó a poner interesante cuando OpenAI lanzó su suscripción ChatGPT Pro a 200 dólares al mes. Pero es que ahora hay una versión aún más cara de estos modelos, y esto vuelve a demostrar que estamos al principio de una pendiente preocupante: la de los precios de la IA.

Qué ha pasado. OpenAI acaba de anunciar que o1-pro, la versión más potente de su modelo de razonamiento, ya está disponible a través de su API. Hasta ahora solo era posible disfrutarla de forma limitada a través de la suscripción a ChatGPT Pro, pero ahora también los desarrolladores podrán crear servicios con ella. Lo llamativo no es en realidad que la empresa ofrezca esta versión, sino el precio al que está disponible.

140 veces más caro que o3-mini. Como decíamos, o1-pro solo está disponible de forma limitada para los usuarios de ChatGPT Pro. Si alguien quiere usarla de forma intensiva a través de la API, los precios son realmente elevados:


o3-mini

o1

o1-pro

Precio por 1M tokens entrada (dólares)

1,10

15

150

Precio por 1M tokens salida (dólares)

4,40

60

600

Como se puede apreciar, o1-pro es 10 veces más caro que o1, y unas 135 veces más caro que o3-mini, que es la versión del modelo de razonamiento que por ejemplo podemos usar (de forma limitada) en la versión gratuita de ChatGPT.

Tokens a precio de oro. Ese coste impone una barrera importante para quienes quieran usar este modelo de IA para proyectos en los que introducimos mucho texto y queremos obtener también mucho texto. Por ejemplo, si queremos analizar una gran cantidad de documentos y saturamos la ventana de contexto de entrada (200.000 tokens) y la de salida (100.000 tokens), tendremos un coste de 90 dólares... para una sola pregunta y una respuesta (una petición de la API).

¿Pero es realmente tan bueno? Las impresiones preliminares de o1-pro en ChatGPT Pro no fueron especialmente llamativas según quienes lo han probado, que además han protestado por una caída de su calidad. Según OpenAI o1-pro ofrece "respuestas que son mejores de forma consistente", y destacan que es una versión de o1 que utiliza más potencia de cálculo para "pensar más y ofrecer incluso mejores respuestas a los problemas más complejos".

Por pedir que no quede. Las empresas de IA están perdiendo un dineral entrenando sus modelos, pero esperan recuperarlo con una técnica sencilla: suscripciones cada vez más caras. Datos filtrados en The Information también señalaban recientemente cómo en OpenAI estaban planteando ya cómo un agente de IA que pudiese sustituir a un "doctorado humano" para investigar, el coste sería de 20.000 dólares al mes.

Parecen caras, pero quizás no lo sean. Por supuesto, el precio de estas suscripciones y estos accesos a la API pueden parecer caros, pero también pueden ser un verdadero chollo. Lo que importa aquí es la rentabilidad que podemos llegar a sacar de estos modelos de IA: si nos ayudan a generar muchos más ingresos, acabaremos teniendo "empleados robóticos" que trabajen 24 horas al día, siete días a la semana y lo hagan además con una productividad y calidad del trabajo teóricamente extraordinarios. Pero claro, primero tendremos que lograr usarlos así... y garantizar que esos resultados son efectivamente válidos, algo que por ahora no parece tan claro.

En Xataka | Los agentes de IA son prometedores. Pero como en el FSD de Tesla, mejor no quitar las manos del volante



via Robótica e IA - Xataka https://ift.tt/OGPmIad

La directora general de AMD está en China con un propósito: arrebatar el mercado de la IA a NVIDIA

La directora general de AMD está en China con un propósito: arrebatar el mercado de la IA a NVIDIA

NVIDIA lidera el mercado de las GPU para inteligencia artificial (IA) con una contundencia impactante, especialmente si nos ceñimos al entrenamiento de los grandes modelos de lenguaje. Según la consultora Jon Peddie Research la compañía liderada por Jensen Huang controló el 90% del mercado durante el tercer trimestre de 2024, y presumiblemente sus números no habrán cambiado mucho desde entonces. AMD alcanzó durante ese periodo una cuota del 10%, por lo que la presencia de Intel en este sector es anecdótica.

Las sanciones que ha desplegado el Gobierno de EEUU durante los últimos dos años y medio impiden a NVIDIA vender en China sus GPU para IA más avanzadas, como, por ejemplo, los chips H100, A100, H800 o A800. Sin embargo, la GPU que por el momento el Departamento de Comercio de EEUU sí le permite vender a sus clientes chinos es el chip recortado H20. Y está teniendo muchísimo éxito. De hecho, sus ventas en el país liderado por Xi Jinping crecen un 50% trimestre a trimestre a pesar de la delicada coyuntura actual.

AMD quiere una porción de la tarta en China

El Gobierno chino quiere que sus compañías de tecnología dejen de comprar circuitos integrados a NVIDIA. El paso que dio a principios del pasado mes de octubre fue meramente informativo, pero, en cualquier caso, se dirigió expresamente a las empresas que adquieren GPU para IA con el propósito de recomendarles que compren chips producidos en China, y no las soluciones de la compañía de Jensen Huang.

La coyuntura actual no parece la idónea para que otra compañía estadounidense intente crecer en el mercado chino

NVIDIA está perdiendo competitividad en China a pesar de las buenas ventas de su chip H20. Es inevitable. Y es que esta GPU sobre el papel es mucho menos capaz que los chips para IA más sofisticados que vende actualmente la firma de Jensen Huang. Por el momento el Ministerio de Industria y Tecnología de la Información de China no ha oficializado nada, pero la Administración liderada por Xi Jinping ha restringido desde el pasado mes de agosto la compra de GPU H20 de NVIDIA por parte de las compañías chinas.

Por otro lado, Huawei tiene listas sus propias GPU para IA, los chips Ascend AI, desde hace más de cinco años. Durante este periodo de tiempo ha ido refinándolas e incrementando sus capacidades con el propósito de igualar o, incluso, superar el rendimiento de los chips A100 y H100 de NVIDIA. Esta coyuntura no parece la idónea para que otra compañía estadounidense intente crecer en el mercado chino, pero este panorama no parece haber desanimado a Lisa Su, la directora general de AMD.

Y es que esta ejecutiva está ahora mismo en China. De hecho, según SCMP ha comenzado su visita destacando el papel que está jugando su compañía en el desarrollo de los modelos de IA de los principales actores del país, entre los que se encuentran DeepSeek y Alibaba. Lisa Su ha remarcado que las GPU Instinct de AMD son compatibles con los modelos de IA de estas dos últimas compañías en un claro intento de defender su posición en el mercado chino.

Además, ha señalado que ha observado un incremento perceptible del rendimiento de los modelos de DeepSeek gracias a la optimización del hardware de AMD. Esta afirmación resulta bastante sorprendente si tenemos en cuenta que DeepSeek utiliza chips de NVIDIA en el entrenamiento y de Huawei en la inferencia. Sea como sea será interesante comprobar cómo evoluciona el hardware de AMD para IA en el mercado chino durante los próximos meses.

Imagen | AMD

Más información | SCMP

En Xataka | El pulso de NVIDIA y la Administración de EEUU se vuelve más virulento. Las GPU B20 para IA corren peligro



via Robótica e IA - Xataka https://ift.tt/LiDk0Px