viernes, 28 de febrero de 2025

Ya sabemos para qué está utilizando la gente la IA realmente en el trabajo: para traducir textos

Ya sabemos para qué está utilizando la gente la IA realmente en el trabajo: para traducir textos

Uno de los principales debates del futuro de la IA es conocer el impacto real de esta nueva tecnología en el ámbito laboral. Las previsiones del Foro Económico Mundial recogidas en su informe 'Future of Jobs Report 2025', estima que el despliegue de la IA en el trabajo desplazará 92 millones de empleos y generará 170 millones de nuevos puestos. Muchos de estos perfiles todavía no existen o están comenzando a formarse.

Un reciente estudio de InfoJobs señala que uno de cada tres empleados en España ya está usando IA habitualmente en su trabajo, aunque el principal uso que se hace de ella ya lo ofrecía Google hace una década: traducir.

Cada vez más y mejor. En una encuesta realizada a 1.040 personas solo el 32% reconocieron usar de alguna forma la IA en su puesto de trabajo. De este 32%, solo el 6% lo hacía de forma habitual, y el 26% la usaba ocasionalmente. Este porcentaje de uso se ha incrementado con respecto a los datos de 2023, donde solo el 23% reconocía usarla. La previsión es que, de cara a 2025, el porcentaje de empleados que usan la IA ascienda hasta el 34%, incrementándose sobre todo en aquellos que la usan habitualmente.

En el lado opuesto, todavía hay un 46% que no conoce ninguna herramienta o modelo de inteligencia artificial, ni la usa en su trabajo, mientras que un 22% afirma sí conocerlas, pero usarlas en su entorno laboral.

Por el momento, solo reemplaza a Google. Aquellos empleados que han reconocido usar habitualmente la IA en su trabajo, ha reconocido usarla en un 58% para realizar traducciones automáticas de documentos. Le sigue el uso de chatbots como ChatGPT empleado en análisis de textos y de consulta en un 37% de los casos. La generación de imágenes con IA (9%), desarrollo de software y asistencia a la programación (6%) o diseño (5%) todavía ocupa un porcentaje de uso reducido.

De cara a 2025, se espera poca variación en el uso que se le da a las herramientas de IA, donde se espera un incremento en el uso de chatbots, ante el incremento en la capacidad de las últimas versiones de ChatGPT, Claudeo DeepSeekque se han presentado recientemente.

Sin formación, no hay IA. El informe 'From Potential to Profit: Closing the AI Impact Gap' elaborado por la consultora Boston Consulting Group, señala que el 75% de los ejecutivos y cargos directivos consideran a la IA como una prioridad estratégica en 2025. Sin embargo, el informe de Infojobs revela que solo el 20% de los empleados que declara usar IA habitualmente en su trabajo ha recibido formación específica para su uso.

Del total de empleados que usa de alguna forma IA en su puesto de trabajo, un 40% asegura que ha recibido información (que no formación) o prevé recibirla en los próximos seis meses. De estos, un 14% ya la ha llevado a cabo, mientras que un 26% lo hará en el futuro. Un 60% de los participantes en este estudio declara que ni ha recibido información ni tiene previsto recibirla en el futuro.

Hombre joven y con estudios. El informe de Infojobs revela una importante brecha, tanto de género, educación y rango de edad en el uso de la IA para su trabajo. Los hombres, con un 59%, utilizan más la inteligencia artificial, mientras que solo el 41% de las mujeres la usan. Por segmento de edad, son los menores de 35 quienes mejor la han incorporado a su día a día, con un 62% frente al 38% de los mayores de 35 años.

También destaca el 76% de empleados con estudios universitarios que la utilizan habitualmente, de los cuales, el 62% lo hacen desde la propia oficina, mientras que solo el 38% de quienes teletrabajan la usan habitualmente.

En Xataka | La carrera por la IA ha impulsado un nuevo perfil profesional que se están rifando las empresas: ingeniero de IA

Imagen | Pexels (Anna Shvets)



via Robótica e IA - Xataka https://ift.tt/LibIYvw

Meta no tenía app propia para competir con ChatGPT. Mark Zuckerberg ya ha avisado de que eso va a cambiar muy pronto

Meta no tenía app propia para competir con ChatGPT. Mark Zuckerberg ya ha avisado de que eso va a cambiar muy pronto

Meta está en una situación extraña en el segmento de la IA. Su modelo Open Source, Llama, es algo así como el Linux de la IA. A partir de él surgen todo tipo de desarrollos derivados, pero mientras la empresa triunfa entre académicos y desarrolladores independientes, apenas tiene presencia en el mundo comercial. Y precisamente eso puede cambiar pronto.

App independiente de Meta AI  a la vista. Según fuentes cercanas al proyecto citadas en CNBC, Meta está preparando el lanzamiento de una aplicación independiente de IA durante el segundo trimestre de 2025. 

Meta AI es un veterano desconocido. La empresa lanzó su chatbot Meta AI en septiembre de 2023, hace ya año y medio. Sin embargo, la empresa prefirió integrarlo en sus redes sociales —WhatsApp, Instagram, Facebook— para tratar de aprovechar los miles de millones de usuarios que las usan. Era un movimiento curioso, pero ha provocado que fuera de esas aplicaciones Meta AI sea un gran desconocido. Susan Li, CFO de Meta, indicó que Meta AI tiene unos 700 millones de usuarios activos mensuales (al menos lo han abierto una vez al mes).

Meta necesita su propio ChatGPT. Y como Meta no ofrecía chatbot independiente de forma clara –se puede usar en la web, pero no en la UE—, los rivales le han adelantado por todos lados. ChatGPT siempre ha sido el referente, pero Gemini, Claude, DeepSeek o Copilot son ahora las opciones claras para quienes quieren acceder a estas herramientas. Todas ellas ofrecen aplicaciones independientes en el móvil.

Incluso Perplexity lo hace. Aquí tenemos un buen ejemplo en Perplexity, que ya no solo es un buscador con IA sino que se ha convertido en una forma de acceder a varios modelos de IA —Open Source— desde una misma interfaz. Meta puede aprovechar ese mismo enfoque ya que su propio LLM es Open Source, pero Meta AI siempre se ha centrado en Llama de forma exclusiva.

Zuck ya avisó. El CEO de Meta, Mark Zuckerberg, destacó en su charla con inversores en enero su ambición en este ámbito: "este va a ser el año en el que un asistente personalizado de IA de alta inteligencia llega a más de 1.000 millones de personas, y espero que Meta AI sea ese asistente de IA".

Lo hizo dos veces. No solo dijo eso a los inversores. El pasado 10 de enero contestó a un usuario que sugirió en Threads que Meta AI tuviera su propia aplicación independiente. La respuesta de Mark Zuckerberg fue un emoticono que representaba que estaba de acuerdo al 100% con esa sugerencia.

Modelo de suscripción a la vista. En CNBC revelan que Meta planea cobrar una suscripción por usar MetaAI, imitando así la filosofía que han seguido por ejemplo OpenAI, Google o Microsoft. La idea, como en esos casos, es ofrecer una versión básica sin coste, y luego versiones más potentes, pero de pago.

Imagen | Meta

En Xataka | Mark Zuckerberg anuncia el nuevo gran objetivo de Meta: crear una inteligencia artificial general



via Robótica e IA - Xataka https://ift.tt/LPChtxq

Hay un mercado en ebullición en el que Meta se está comiendo a toda su competencia: el de las gafas inteligentes

Hay un mercado en ebullición en el que Meta se está comiendo a toda su competencia: el de las gafas inteligentes

El matrimonio entre una tecnológica como Meta y una marca icónica de gafas como Ray-Ban ha dado un buen giro al mercado de los wearables, disparando las ventas de gafas inteligentes.

Con una previsión de crecimiento anual superior al 60% hasta 2029, estamos frente a una nueva categoría de dispositivos que, aprovechando la miniaturización y la incorporación de LLMs, van a cambiar la forma en que nos relacionamos con la tecnología.

Por qué es importante. Las gafas inteligentes con IA integrada representan uno de los primeros intentos realmente buenos de hacer que la tecnología sea invisible, integrándose bien en accesorios cotidianos.

A diferencia de las malogradas Google Glass, este nuevo tipo de gafas han sabido conjugar bien moda, funcionalidad y aceptación social.

En cifras. El mercado de gafas inteligentes creció de forma explosiva en 2024: un 210% interanual, según datos de Counterpoint Research. Meta domina ese mercado con una cuota superior al 60%.

  • Por primera vez, el mercado supera los dos millones de unidades vendidas.
  • En 2023 ya vimos un crecimiento del 156%.
  • Solo en enero de 2025 vimos nueve modelos distintos de gafas inteligentes con IA.

Punto de inflexión. Las Ray-Ban Meta han redefinido lo que considerábamos como unas gafas inteligentes con IA. Aportan una utilidad real, y lo que es más importante, lo hacen desde la discreción y la integración. Cuando las probamos hace casi un año lo tuvimos claro desde el principio: son el principio de algo mucho más grande.

El éxito de las Ray-Ban Meta ha despertado el interés de otras tecnológicas. Xiaomi, Samsung, ByteDance o Baidu ya preparan su entrada en ese mercado. Vamos a ver muchos nuevos modelos a partir de ahora.

Sí, pero. Por motivos culturales, no está del todo claro que el éxito de ese modelo pueda ser fácilmente replicado en otras regiones. Por ejemplo, Asia, como indica la propia Counterpoint Research.

Además, la diferenciación en un producto tan pequeño y concreto puede ser complicada, ya que la mayoría de fabricantes van a usar los mismos componentes estandarizados de los mismos proveedores mayoristas.

El próximo campo de batalla de la industria tecnológica no estará en nuestros bolsillos, sino directamente sobre nuestros ojos.

En Xataka |

Imagen destacada | Xataka



via Robótica e IA - Xataka https://ift.tt/8VmO2dJ

GPT-4.5 no es mejor que sus rivales en casi nada. Es la prueba de que los modelos de IA tradicionales ya casi no avanzan

GPT-4.5 no es mejor que sus rivales en casi nada. Es la prueba de que los modelos de IA tradicionales ya casi no avanzan

Sam Altman ya había avisado de que tenían previsto lanzar GPT-4.5 muy pronto. Llevábamos meses esperando al sucesor de GPT-4, pero con el tiempo las expectativas han ido bajando: se hablaba de la desaceleración de la IA y de cómo el escalado —más datos y más GPUs para entrenar modelos— ya no funcionaba tanto. Precisamente GPT-4.5 iba a ser la prueba de que quizás eso no era cierto. ¿Sabéis qué? Que probablemente lo era, porque GPT-4.5 es un modelo con muchos problemas de partida.

GPT-4.5 ya está con nosotros. Ayer OpenAI presentaba al fin GPT-4.5, el teórico sucesor de GPT-4. Sam Altman explicaba que este era "el primer modelo que me hace sentir que estoy hablando con una persona atenta".

Gigantesco y caro. Pero Altman también reconocía otra cosa. "Malas noticias: es un modelo gigante y caro". El máximo responsable de OpenAI afirmaba haberse quedado sin GPUs suficientes para hacer un lanzamiento masivo, y la disponibilidad de GPT-4.5 es muy limitada: solo los usuarios de ChatGPT Pro podrán usarlo de momento.

Caro no, carísimo. Usar el modelo GPT-4.5 a través de la API de OpenAI es extraordinariamente caro: cuesta 75 dólares por millón de tokens de entrada, y 150 dólares por millón de tokens de salida. GPT-4o cuesta 2,5 y 10 dólares respectivamente (30 y 15 veces menos), y o1, hasta ahora el más caro, cuesta 15 y 60 dólares respectivamente.

Y además no es un modelo "frontera". El informe técnico de OpenAI indica que este no es un modelo "frontier" como lo era GPT-4, por ejemplo. Eso es importante, porque a pesar de ser su LLM más grande, los modelos frontera son más capaces, de gran escala y plantean riesgos al poder generar desinformación o ser forzados a salirse de las normas. En GPT-4.5 parecen haberse centrado mucho en evitar errores (es una de sus ventajas, parece meter menos la pata según algunos bancos de pruebas).

No parece mejor en casi nada. Las pruebas y benchmarks a las que ha sido sometido parecen dejar claro que el salto en prestaciones es especialmente decepcionante, sobre todo si lo comparamos con los nuevos modelos de sus rivales. Es peor en precisión de los hechos que Deep Research de Perplexity, es peor que Claude 3.7 Sonnet en programación según TechCrunch y varios expertos, y también es peor en razonamiento (aunque ciertamente no está orientado a ello) que DeepSeek R1, o3-mini o Claude 3.7 Sonnet (que es un modelo "híbrido").

Sensación agridulce. Expertos como Simon Willison o Andrej Karpathy han compartido sus primeras impresiones y en ambos casos la sensación es que GPT-4.5 es lento, está actualizado solo hasta octubre de 2023 y no representa un avance realmente destacable. Willinson llegó a analizar el debate que decenas de usuarios manteían sobre GPT-4.5, y en un resumen generado por IA las conclusiones también eran claras: la propia numeración era inapropiada, el modelo es demasiado caro, la relación precio/prestaciones era muy discutible y el rendimiento no era el que se esperaba tras tanto tiempo. La conclusión de Karpathy es que "es un poco mejor y eso es genial, pero no exactamente en apartados triviales de destacar". 


¿Más humano? La apreciación de Altman sobre su conversación cómo se había visto sorprendido por la capacidad de conversación de GPT-4.5 quizás apunte a la dirección en la que este modelo destaca. Karpathy también apuntaba a ese aspecto al decir que la mejora podría mostrarse en "creatividad, realización de analogías, comprensión general y humor", lo que quizás haga que efectivamente las conversaciones con GPT-4.5 den la sensación de ser aún más cercanas a las que tendríamos con un ser humano.

El escalado no funciona, la desaceleración está aquí. GPT-4.5 es un ejemplo claro de cómo parece que hemos llegado a los límites del escalado. Tener un LLM gigantesco ya no parece aportar ventajas sobre sus antecesores, y dedicar más datos y más GPUs para entrenar estos modelos no parece tener mucho sentido. El propio Altman dejó claro que GPT-4.5 sería el último modelo de no razonamiento de la empresa. Esa es otra señal que demuestra que la desaceleración de la IA generativa, al menos en lo que se refiere a modelos tradicionales, es una realidad.

¿Por qué lo han lanzado entonces? En el blog de OpenAI se indica cómo "estamos compartiendo GPT-4.5 como un avance de investigación para comprender mejor sus puntos fuertes y sus limitaciones. Todavía estamos explorando de lo que es capaz y estamos ansiosos por ver cómo la gente lo utiliza de maneras que no habríamos esperado". Eso parece mostrar las dudas que sus propios creadores tienen con el modelo, y la pregunta por qué lo han lanzado.

Necesitan seguir generando "hype". Sobre todo teniendo en cuenta que los rivales están muy fuertes últimamente. Claude 3.7, Grok 3 y desde luego DeepSeek R1 han logrado darle la vuelta a la tortilla y plantear todo un reto para OpenAI, que hasta no hace mucho parecía estar un pasito por delante de sus rivales. Ahora eso no está nada claro, y en muchos apartados sus competidores ya superan las prestaciones de sus modelos. OpenAI necesita sacar pecho y decir "aquí estoy yo", pero quizás con GPT-4.5 ese movimiento salga mal, porque al menos a priori las prestaciones son decepcionantes.

Y los inversores aprietan. Algunos apuntan a otra teoría probable para este lanzamiento. OpenAI podría haberse visto obligada a lanzar GPT-4.5 ya contentar a los inversores, que han invertido miles de millones de dólares en la compañía y que necesitan estar tranquilos con su inversión. De nuevo aquí OpenAI tiene un problema, porque no parece que GPT-4.5 pueda dejarlos tranquilos. Será difícil que convenzan a nuevos inversores con este lanzamiento.

En Xataka | OpenAI tiene una oportunidad de oro para barrer a todos sus rivales: lanzar un ChatGPT ilimitado y lleno de publicidad



via Robótica e IA - Xataka https://ift.tt/6HcZA7u

Unitree es una de las joyas tecnológicas chinas. Quiere hacer con los robots lo mismo que hizo Xiaomi con los móviles

Unitree es una de las joyas tecnológicas chinas. Quiere hacer con los robots lo mismo que hizo Xiaomi con los móviles

En la robótica avanzada son Boston Dynamics o Tesla quienes acaparan los titulares, pero una empresa china está siguiendo un camino alternativo para acabar siendo la próxima grande del sector robótico: Unitree.

Fundada en 2016 en Hangzhou, en la costa este china, sigue una estrategia que recuerda mucho a la de Xiaomi en sus inicios: intentar ofrecer la mejor tecnología posible a precios de derribo. Así conquistó Xiaomi a países como España y así intenta Unitree hacerse un hueco en la robótica mundial.

Claro que los precios de este tipo de robots nada tienen que ver con los de un Redmi.

Propuesta de valor

La diferencia de precio es grande. Uno de los robots más famosos de Boston Dynamics, Spot, cuesta unos 75.000 dólares. El Go2 de Unitree, relativamente similar, se vende por 1.600 en su modalidad más barata. Esta estrategia le ha permitido dominar el mercado de robots cuadrúpedos, donde ya tiene un 40% de cuota de mercado según el Instituto Gaogong.

Lo más importante no es tanto el precio como lo que implica: un cambio de paradigma en la forma de vender robótica avanzada. Otros fabricantes enfocan sus robots como productos premium para empresas o para ejércitos. Unitree los entiende como tecnología de uso masivo. O casi.

Tras los robots cuadrúpedos, el gran reto está en los bípedos. Los humanoides. Y ahí Unitree tiene su modelo G1, que vende por 16.000 dólares. Mucho dinero, pero bastante menos de lo que se espera que cueste el Optimus de Tesla.

G1 G1 Imagen: Unitree.

Sus especificaciones:

  • Altura de 1,32 metros (aproximadamente como un niño de nueve años).
  • Peso de 35 kilos.
  • Velocidad de carrera de 2 metros por segundo (7,2 kilómetros por hora, equivalente a un trote muy lento).
  • LiDAR 3D.
  • Cámara de profundidad Intel RealSense (solo este componente ya vale 1.300 dólares en el mercado libre).
  • Control por voz avanzado.

Más allá de especificaciones, el G1 es un ejemplo del enfoque pragmático de Unitree: no busca demos espectaculares de su robótica humanoide, sino la capacidad de producirlos en masa.

No es casual que Unitree haya salido de Hanghzou. De allí han salido muchas otras tecnológicas y es de hecho la sede de Alibaba. Es el lugar donde confluyen capital, talento y fabricación.

Hangzhou es uno de los vértices de lo que podríamos llamar el triángulo tecnológico chino, junto a Shenzhen y Shanghai. Y dentro de Hanghzou, Unitree es uno de los llamados "seis pequeños dragones": las seis startups que están despuntando en IA y robótica. Por supuesto, otro de los dragoncitos es DeepSeek.

El Triangulo Tecnologico Chino El Triangulo Tecnologico Chino

Para entender la importancia estratégica de Unitree: fue una de las 18 empresas elegidas por Xi Jinping para el simposio tecnológico de hace unos días junto a la propia DeepSeek, Huawei, BYD, Tencent, Xiaomi, CATL... Una señal de poderío y de fe.

El enigma del fundador

El fundador de Unitree es Wang Xingxing, alguien que rompe varios estereotipos:

  • Estudió en la Universidad de Ciencia y Tecnología de Zhejiang, una institución respetable pero no de primer nivel. Muchos fundadores de su generación sí estudiaron en centros de élite o en el extranjero.
  • Nunca fue un estudiante brillante... ni muchísimo menos.
  • El propio Xingxing admitió que no pudo entrar en la Universidad de Zhejiang (más prestigiosa) por no tener el suficiente nivel de inglés.

Tras pasar un par de meses en DJI, el gigante de los drones, se animó a lanzar su propia empresa. Y según dijo en una entrevista, los inicios fueron duros: "Durante los tres primeros años hubo momentos en que no podíamos ni pagar los sueldos".

Nuevamente, un comienzo modesto que contrasta con el patrón habitual de las startups chinas de alto perfil, que suelen arrancar con grandes rondas de financiación y equipos directivos procedente de grandes tecnológicas. Es el caso de Xpeng, NIO o Bytedance.

Wang, en cambio, empezó prácticamente desde cero, durmiendo durante un mes en el sofá de un amigo. Su visión también era atípicamente modesta para un fundador tecnológico chino. En lugar de destilar ambición desmedida con cierta grandilocuencia, fijó un objetivo simple: conseguir que cualquiera pudiera tener un robot en casa.

De momento no le está yendo mal con esa idea.

Los retos para crecer

Pese a su buen recorrido hasta el día de hoy, queda mucho por resolver de cara al futuro. Empezando por la autonomía. Sus robots humanoides tienen para unas dos horas de uso, insuficiente para un uso prolongado. Y la garantía es de solo ocho meses, algo que puede disuadir a más de un comprador ante productos varios miles de dólares. Cómo ofrecer un servicio técnico adecuado cuando algo vaya mal a un cliente de cualquier parte del mundo es otra incógnita.

Y desde luego, está por ver si estos robots pueden hacer tareas domésticas de verdad, de forma completa, sin requerir ayuda o remate humano, en entornos tan distintos como el hogar de cada consumidor. Muy distinto a hacerlo en una demo en un entorno controlado.

La pregunta del millón es si el modelo de negocio de Unitree será sostenible a largo plazo. Los precios se mantienen bajos gracias a la integración vertical y a su cercanía física con la cadena de suministro china, pero la robótica avanzada en 2025 es un demandante insaciable de inversión en I+D. Y hacerlo con márgenes ajustados complica la ecuación.

Incógnitas futuras al margen, Unitree representa bien a una nueva generación de tecnológicas chinas: las que compiten en todo el mundo con precios ajustados y un enfoque muy pragmático, más centrado en asumir tareas tediosas que en hacernos arquear las cejas con trucos de magia.

Ahora bien, su éxito –o su fracaso– puede acabar determinando si la robótica avanzada acaba convirtiéndose en una tecnología para las masas... o si se queda en un producto de nicho premium.

De momento, Unitree ha demostrado que sí existe un cierto mercado para la robótica avanzada cuando se ofrece a precios mundanos. Ahora tendrá que demostrar que puede mantener el pedal del acelerador pisado.

Imagen destacada | Unitree, Xataka

En Xataka | Meta apunta más allá de la IA generativa: su nueva gran apuesta son los robots humanoides avanzados, según Bloomberg



via Robótica e IA - Xataka https://ift.tt/VAoidnt

jueves, 27 de febrero de 2025

GPT-4.5 ya es una realidad: OpenAI pisa el acelerador en la carrera de la IA con su nuevo y avanzado modelo de lenguaje

GPT-4.5 ya es una realidad: OpenAI pisa el acelerador en la carrera de la IA con su nuevo y avanzado modelo de lenguaje

La carrera por el desarrollo de la inteligencia artificial no deja de acelerarse. En noviembre de 2022 fuimos testigos del lanzamiento de GPT-3.5, el modelo que sentó las bases de ChatGPT y marcó un punto de inflexión en la IA conversacional. Casi dos años después, nos encontramos ante la llegada de GPT-4.5, una nueva evolución que apunta a seguir ampliando los límites de esta prometedora tecnología.

Estamos ante un modelo de transición entre GPT-4o y GPT-5, pero con un papel clave en la estrategia de OpenAI. La compañía ha decidido que GPT-4.5 será el último sin incorporar “cadena de pensamiento”, dando paso a una nueva generación con capacidades de razonamiento incorporadas. Este cambio busca mejorar la claridad de su familia de productos, que se ha vuelto compleja con el paso del tiempo.

Un modelo más avanzado, con mayor inteligencia emocional

La IA está llegando a un punto donde ya no nos conformamos con tener modelos capaces de resolver problemas complejos. Que mejoren en programación, ciencia, ingeniería y matemáticas está muy bien, pero buscamos modelos que puedan interactuar de manera más espontánea con los humanos. Esto nos da a entender OpenAI con GPT-4.5. 

Su nuevo modelo de lenguaje se presenta como el más grande y avanzado publicado por la startup hasta la fecha. Los investigadores afirman que no solo resulta más natural, sino que su base de conocimiento se ha expandido para enfrentarse a desafíos complejos en diversas disciplinas científicas, al tiempo que mejora su capacidad para resolver problemas lógicos.

En desarrollo.

Imágenes | OpenAI

En Xataka | Alexa+, primeras impresiones: la explosión de la IA le sienta genial al asistente de Amazon. Pero también hay muchas incógnitas



via Robótica e IA - Xataka https://ift.tt/WDUudsg

Satya Nadella tiene claro que de momento la IA no ha revolucionado nada. La razón: dinero

Satya Nadella tiene claro que de momento la IA no ha revolucionado nada. La razón: dinero

"¡Enséñame la pasta!". Eso es lo que quiere Satya Nadella. Que la IA le enseñe la pasta. Que dé (mucho) dinero. Es algo a lo que ya hicieron referencia tanto Microsoft como OpenAI hace poco. Para estas empresas la definición de AGI precisamente está ligada al dinero, y han establecido que una AGI no será una AGI hasta que no dé 100.000 millones de beneficio. Ese argumento le sirve ahora al CEO de Microsoft para hablar de que de momento la IA no ha revolucionado nada.

De AGI nada. En una reciente entrevista con el podcaster Dwarkesh Patel, Satya Nadella, CEO de Microsoft, realizó algunas declaraciones importantes en las que dejó clara su postura sobre la situación actual del segmento de la inteligencia artificial. Para empezar indicó que "que reividinquemos que se ha logrado un hito en AGI es solo hackear las pruebas sin sentido", es decir, dar mayor importancia a los benchmarks del que realmente tienen.

Y de revolución, tampoco. De hecho, la mejor métrica para medir el éxito del segmento de la IA es sencilla: debería incrementar el producto interior bruto de cualquier país.

"Cuando decimos: 'Oh, esto es como la revolución industrial', deberíamos tener ese tipo de crecimiento que provocó la revolución industrial. Para mí, eso significa un 10%, un 7% para el mundo desarrollado. Ajustado a la inflación, creciendo al 5%, ese es el verdadero marcador."

La IA necesita una 'killer app'... Nadella comentó cómo ese crecimiento aún no se ha producido porque la mayoría de usuarios aún no ha entendido cómo usar la iA de forma efectiva. Es lo mismo que ocurrió con el PC, tardó tiempo en encontrar su sitio y demostrar su potencial.

... como lo que lograron Excel y el correo electrónico. El CEO de Microsoft recordaba cómo antes del PC, el correo electrónico y las hojas de cálculo, las empresas hacían sus previsiones de negocio de forma casi artesanal: "los faxes circulaban, alguien los recibía y luego hacía un memorándum entre oficinas que luego circulaba, y la gente introducía cifras, y al final salía una previsión quizá justo a tiempo para el siguiente trimestre". Pero entonces llegaron Excel y el correo electrónico y revolucionarion ese tipo de tarea, como muchas otras. "Eso es lo que necesitamos que pase con la IA cuando se introduzca en trabajos en el ámbito del conocimiento".

La IA nos supervitaminará. El debate sobre el impacto de la IA en el trabajo es constante, pero para Nadella esta tecnología nos ayudará de forma extraordinaria. Así permitirá que cualquier trabajador se centre en tareas de alto valor, y no en tareas rutinarias que se pueden automatizar. Bromeó hablando de la cantidad de tiempo que se dedica a filtrar su correo electrónico, y de cómo evitar eso ya será una ganancia de tiempo y productividad excepcional.

La IA no solo no da dinero, sino que lo pierde. La inmensa mayoría de grandes empresas que están apostando por IA y desarrollando grandes modelos de lenguaje están perdiendo dinero, y además lo están perdiendo a lo bestia. OpenAI es el mejor ejemplo de quemar el dinero como si no hubiera mañana, pero también es de momento la mejor posicionada para ganar esa carrera.

Pero esto es una apuesta. De hecho, probablemente la mayor de la historia. Lo demuestran las colosales inversiones que Microsoft, Amazon, Meta, o Google están haciendo para crear centros de datos dedicados a la IA. Todas ellas dedicarán decenas de millones de dólares a esa tarea, y lo harán aun cuando de momento no está claro que la IA vaya a ser rentable. Por supuesto, estas empresas creen que sí lo será, y mucho.

Imagen | Sony Pictures

En Xataka | Satya Nadella pidió bajarse el sueldo por no haber cumplido en materia de seguridad. Microsoft le compensó con 79,1 millones



via Robótica e IA - Xataka https://ift.tt/ormcP4W

NVIDIA ha vuelto a batir su récord de ingresos. Paradójicamente, a Wall Street no parece importarle mucho

NVIDIA ha vuelto a batir su récord de ingresos. Paradójicamente, a Wall Street no parece importarle mucho

La fiebre por la IA sigue espoleando a NVIDIA en bolsa. La empresa liderada por Huang ha vuelto a presentar unos resultados récord para su cuarto trimestre fiscal. Y ya lleva un tiempo convirtiendo la ruptura de récords en costumbre.

Por qué es importante. Esto llega poco después de las preocupaciones sobre el impacto de DeepSeek y su eficiencia en el mercado que domina NVIDIA. Sobre la idea de que iba a ser necesario menos hardware y de menor potencia para seguir avanzando en la IA. Lo que provocó el enorme agujero en bolsa de NVIDIA.

El punto más destacado de los resultados fue el impresionante arranque de Blackwell, la nueva arquitectura de chips para IA de NVIDIA. Colette Kress, directora financiera de la compañía, ha explicado que Blackwell generó 11.000 millones de dólares en ingresos, superando todas las expectativas y convirtiéndose en "el lanzamiento de producto más rápido en la historia de nuestra empresa".

En cifras. El negocio de centros de datos, donde se concentra la tecnología para IA, sigue siendo el principal motor de crecimiento con ingresos de 35.600 millones en el trimestre, un 16% más que en el trimestre anterior y un 93% más que en el mismo periodo del año anterior

Para el año fiscal completo, este segmento alcanzó los 115.200 millones, más del doble que el año anterior. Los ingresos totales del trimestre llegaron a los 39.300 millones, un 12% más que en el trimestre anterior y un 78% superiores interanualmente.

Ingresos Trimestrales De Nvidia Ingresos Trimestrales De Nvidia

Entre líneas. NVIDIA está cambiando su estrategia para hacer frente a la competencia. Jensen Huang enfatizó en la llamada con inversores que están diseñando plataformas específicas para "IA de razonamiento", un tipo de IA que requiere hasta 100 veces más capacidad de computación que la IA generativa "tradicional", lo que refuerza su necesidad de hardware más potente incluso frente a modelos más eficientes.

  • Los modelos de razonamiento como o3 de OpenAI, DeepSeek R1 y Grok 3 requieren un procesamiento mucho más intensivo.
  • Blackwell ofrece 25 veces más rendimiento para estos modelos comparado con la generación anterior.
  • La demanda de infraestructura para IA está impulsando pedidos iniciales de clusters de 100.000 GPUs o más.

¿Y ahora qué? NVIDIA ya ha anunciado que presentará el sucesor de Blackwell, denominado Blackwell Ultra, en la segunda mitad de este año, manteniendo su ritmo anual. Jensen Huang ha confirmado que esta transición será más sencilla que la de Hopper a Blackwell, ya que utilizará la misma arquitectura de sistema.

El contraste. A pesar de los impresionantes resultados, las acciones de NVIDIA apenas reaccionaron en el mercado tras la presentación, un comportamiento muy distinto al visto en trimestres anteriores.

El motivo: los inversores quizás ven con cautela la reducción en los márgenes brutos (del 75% al 73%) y el menor crecimiento porcentual comparado con trimestres anteriores, aunque sigue siendo extraordinario para una empresa que se ha consolidado como la segunda más valiosa del mundo.

La gran pregunta. ¿Va a poder NVIDIA mantener su dominio tecnológico y financiero frente a una competencia cada vez más intensa y que amenaza también desde China?

Parece inevitable que, aunque la posición de NVIDIA vaya a seguir siendo fuerte, llegue una cierta disminución de la demanda en favor de nuevos competidores. Y sobre todo, a medida que las descomunales inversiones que han hecho las empresas en IA no tengan un claro y lucrativo retorno, algo que parece bastante factible. Quizás llegue la hora de reajustar las expectativas.

Imagen destacada | NVIDIA

En Xataka | He usado Claude 3.7 durante horas. Es lo más cercano a un cerebro humano que he sentido con una IA



via Robótica e IA - Xataka https://ift.tt/JjWTHFV

He usado Claude 3.7 durante horas. Es lo más cercano a un cerebro humano que he sentido con una IA

He usado Claude 3.7 durante horas. Es lo más cercano a un cerebro humano que he sentido con una IA

Anthropic lanzó esta semana Claude 3.7 Sonnet, su modelo más inteligente, el primero que razona... y el primer modelo "de razonamiento híbrido" del mercado.

He pasado unas cuantas horas probándolo en distintos escenarios para ver de qué es capaz, dónde brilla y si supone un avance importante respeto a 3.5 Sonnet. Y por supuesto, qué tal sale en la foto frente a otros razonadores como Grok 3 o los 'o' de OpenAI.

Razonamiento híbrido

Lo primero que llama la atención es el concepto de "razonamiento híbrido". A diferencia de OpenAI, que ofrece modelos separados para tareas de razonamiento profundo (o1, o3-mini), Anthropic ha integrado ambas capacidades en un único modelo:

  • Modo estándar. Para respuestas rápidas y conversacionales.
  • Modo de pensamiento extendido. Para problemas complejos que requieren razonamiento paso a paso.

En la interfaz web aparece un simple interruptor para alternar entre ambos modos. Los desarrolladores que usen la API pueden especificar un "presupuesto de pensamiento" en tokens (hasta 128K) para controlar el equilibrio entre velocidad y profundidad.

Como explica Anthropic: "Así como los humanos usamos un solo cerebro tanto para respuestas rápidas como para reflexiones profundas, creemos que el razonamiento debería ser una capacidad integrada de los modelos frontera en lugar de un modelo completamente separado".

Pensamiento extendido vs razonamiento estándar

Para poner a prueba esta nueva capacidad, decidí probarla con el clásico problema de Monty Hall, un rompecabezas de probabilidad famoso por ser contraintuitivo.

En modo estándar, Claude 3.7 dio una explicación correcta, pero concisa.

Cleanshot 2025 02 26 At 13 35 45 2x Cleanshot 2025 02 26 At 13 35 45 2x Claude 3.7 en razonamiento estándar. Imagen: Xataka.

Al activar el modo de pensamiento extendido, la diferencia fue grande: el modelo dedicó tiempo a analizar el problema desde varios ángulos, desarrollando el razonamiento paso a paso y, algo interesante, detectando y corrigiendo un error en su propio razonamiento inicial.

Cleanshot 2025 02 26 At 13 37 07 2x Cleanshot 2025 02 26 At 13 37 07 2x Claude 3.7 con el razonamiento extendido activado. El campo de texto con scroll que aparece entre pregunta y respuesta final es su largo proceso de razonamiento, que duró 57 segundos antes de pasar a escribir el veredicto. Imagen: Xataka.

Más impresionante aún, cuando le pedí que creara una simulación para entender mejor el problema, Claude 3.7 generó un componente React interactivo que permitía jugar con el problema de Monty Hall directamente en la ventana de chat. Espectacular y muy bien ejecutado.

Cleanshot 2025 02 26 At 13 39 39 2x Cleanshot 2025 02 26 At 13 39 39 2x El componente React interactivo que creó Claude 3.7 para permitirme jugar con el problema de Monty Hall. Imagen: Xataka.

Y para finalizar, le pedí que me generase el código adecuado para incrustarlo aquí y que los lectores de Xataka pudieran jugar a este problema por ellos mismos.

Simulación del Problema de Monty Hall

Xataka 2025

Puerta 1
Puerta 2
Puerta 3

Selecciona una puerta para comenzar

Estadísticas

Manteniendo la elección

Victorias: 0

Derrotas: 0

Porcentaje: 0.0%

Cambiando la elección

Victorias: 0

Derrotas: 0

Porcentaje: 0.0%

Partidas totales: 0

Simulación automática

Explicación

El problema de Monty Hall demuestra que cambiar de puerta duplica tus probabilidades de ganar:

  • Si te mantienes en tu elección inicial: ganas solo si elegiste correctamente al principio (1/3 de probabilidad)
  • Si cambias: ganas si tu elección inicial fue incorrecta (2/3 de probabilidad)

Prueba la simulación automática con ambas estrategias para ver la diferencia en los resultados a largo plazo.

Pruebas matemáticas y razonamiento

Según los datos proporcionados por Anthropic, Claude 3.7 Sonnet muestra mejoras significativas en pruebas matemáticas como AIME (American Invitational Mathematics Examination). Es el mismo examen que le pasé a Grok 3.

Con el modo de pensamiento extendido, Claude 3.7 puede resolver alrededor 10 de sus 15 problemas. Grok 3 se quedó en 6. o3-mini-high, en 9. Minipunto para Claude 3.7.

La relación entre el tiempo de pensamiento y el rendimiento es directa: a más tokens de pensamiento, mejores resultados. Lo fascinante es que puedes ver todo el proceso de razonamiento en tiempo real, algo hasta ahora imposible en Claude. Mostrar el trabajo interno genera confianza y permite entender cómo llegó a sus conclusiones.

Más allá de las matemáticas, y como hice con Grok 3, le pedí analizar el impacto de la IA en el diseño de chips. Claude 3.7 incluye razonamiento, pero no una función equiparable a Deep Research. Solo quedaba activar el pensamiento extendido y a ver qué salía. Eso sí, activé también el modo de respuesta más extensa, que no es un 'Deep Research' pero tiene un enfoque algo similar.

Cleanshot 2025 02 26 At 14 40 02 2x Cleanshot 2025 02 26 At 14 40 02 2x Un fragmento de la respuesta en el modo más similar que tiene Claude 3.7 a los 'Deep Research' que hemos visto en OpenAI, Google o Grok: la combinación del pensamiento extendido y el tipo de respuesta explicativa, en lugar de la formal o la concisa. Imagen: Xataka.

¿El resultado? Un texto de 807 palabras apropiado, correcto por lo general, pero poco profundo en comparación a otros. De hecho solo tardó cinco segundos en razonarlo, un síntoma de que apostó por lo genérico, lo evidente.

No mencionó siquiera AlphaChip, por ejemplo. Claude es potentísimo pero le sigue pesando su carencia de conexión a Internet y aquí se aprecia esa costura.

También le pedí un informe completo sobre Xataka a nivel financiero, mediático, reputacional, etc. Con la misma combinación activada: pensamiento extendido y respuesta explicativa.

Estuvo generalmente acertado y esta vez se extendió hasta las 1.508 palabras, con matices y algún derrape (como decir que nos compró Webedia en 2014, cuando fue en realidad en 2018; o un análisis erróneo del origen de nuestro nombre). Hasta hizo un DAFO que no estuvo nada mal como punto de partida.

Cleanshot 2025 02 26 At 14 46 05 2x Cleanshot 2025 02 26 At 14 46 05 2x Nuestro informe. Imagen: Xataka.

También mostró, como Grok 3, una limitación inherente a todo sistema Deep Research: sabe mucho de lo que hay en público, pero no tiene muchos insights, carece del ese conocimiento tangencial e intuitivo o fruto de conversaciones a puerta cerrada que tiene un experto.

Es fácil que estas omisiones o pequeños derrapes se le puedan colar a un inexperto, pero canta en cuanto lo lee alguien de ese campo.

Claude vs OpenAI y xAI

¿Cómo se compara Claude 3.7 con la competencia más directa?

Frente a OpenAI: A diferencia de OpenAI, que tiene múltiples modelos para diferentes necesidades (GPT-4, o1, o1-mini, o3-mini), Claude 3.7 ofrece un enfoque más unificado. No es que esté simplificado al máximo, pero al menos es un poco más intuitivo saber cuándo elegir cuál.

En cuanto a rendimiento, mientras que o1 es extremadamente potente para problemas de razonamiento puro, Claude 3.7 ofrece un mejor equilibrio entre pensamiento profundo y velocidad, todo dentro del mismo modelo. Claude es de hecho, en general, equilibrado y muy profundo a la hora de leer entre líneas y sacar conclusiones más allá de las que pueden ser evidentes. ChatGPT peca de cierta torpeza en comparación.

Comparado con Grok 3 de xAI: Grok 3 también ofrece un modo de pensamiento profundo, Claude es algo más consistente en mantener el contexto y seguir instrucciones complejas. Eso sí, Grok vapulea a Claude en cualquier asunto que implique actualidad.

No obstante, Claude está muy por encima de Grok en cuanto a producto. No es tan completo como ChatGPT en ese sentido, pero tiene proyectos, capacidad para guardar conversaciones, distintos submodelos, tipos de respuesta a elegir... Es mucho más versátil y usable en el día a día.

  • Claude brilla en razonamiento matemático y profundidad emocional y humana.
  • En cambio, se queda por detrás en cualquier cosa que implique acceder a Internet y estar actualizado. Tampoco permite personalizar el comportamiento del modelo, solo configurar levemente los estilos de respuestas, que no es exactamente lo mismo.

Claude Code

Por otro lado, Claude 3.7 incluye Claude Code como herramienta para asistir a desarrolladores. No soy uno de ellos, así que simplemente le he pedido que cree un minijuego para el navegador con el siguiente prompt:

Crea un juego para navegador, dándome el código para incrustarlo en un artículo de Xataka. El juego debe constar de un cubo en el que el jugador recoja letras que van cayendo del cielo, controlándolo con las flechas del teclado, añade flechas virtuales para los jugadores que acceden desde un móvil. El jugador solo puede recoger las letras que conforman 'XATAKA' (X, A, T, K). Cada letra correcta suma un punto, cada letra incorrecta resta dos puntos. Un marcador va actualizando la puntuación en tiempo rea, el marcador parte de cero y va aumentando y disminuyendo. Al llegar nuevamente a cero, el jugador pierde la partida y tiene que volver a empezar. El diseño debe ser retrofuturista, con neones, pero manteniendo una buena visibilidad y legibilidad de las letras, tonalidades que predominen: verdes y negros. Velocidad a la que caen las letras en aumento según pasa el tiempo. 600 pixeles de ancho.

Solo tuve que hacerle dos modificaciones posteriores:

  • Que todas las letras sean verdes (Claude decidió que las incorrectas serían rojas).
  • Que las letras que estaban cayendo sigan cayendo cuando el jugador recoge una, en lugar de desaparecer.

Pueden jugarlo ustedes, aquí está el resultado.

XATAKA

Recolector de Letras

Recoge solo las letras: X, A, T, K

• Letra correcta: +1 punto

• Letra incorrecta: -2 puntos

¡Consigue la mayor puntuación posible!

Usa las flechas ← → del teclado o los botones en pantalla

Pues muy bien.

B7e B7e

La experiencia del pensamiento extendido

Lo que realmente distingue a Claude 3.7 es la experiencia de ver su proceso de pensamiento desplegarse en tiempo real. De una forma particularmente humana.

En el caso del problema de Monty Hall no solo dio toda la respuesta que mencioné (correcta, profunda, desglosada, hasta con un entorno multimedia con el que experimentar). También mostró cómo llegó hasta ella, incluyendo momentos en los que iba cuestionando sus suposiciones iniciales. Nuevamente, con puntos muy similares a tal y como los pensaría un humano ("¿Un momento, qué pasa con la oscuridad?").

Los desarrolladores tienen aquí una herramienta muy potente, pero que deben vigilar para que no se coma sus presupuestos. El precio por tokens de entrada y salida se mantiene respecto a Claude 3.5, pero el modo de pensamiento extendido dispara el consumo y por tanto los costes.

Por eso Anthropic ha activado la opción de fijar un presupuesto para el modo de pensamiento extendido de cara a evitar sustos en la factura.

Claude 3.7 es un avance gigante. Si hasta para alguien como yo, que no tiene ni idea de programar, ha podido convertir un triste prompt sin mucha precisión en un juego funcional, en menos de dos minutos, entiendo que Claude Code también está en esa cuerda.

El gran valor de Claude 3.7 no es tanto el de sus mejores incrementales, sino la atmósfera de trabajo que crea entre el chatbot y el humano. Es una experiencia más cálida que la del resto. De hecho cálidas son sus tonalidades de fondo y las correcciones de color de sus demos. Es intencional, es la contraposición al blanco nuclear de ChatGPT.

Claude 3.7 perfecciona lo que ya hacía 3.5: destilar naturalidad, profesionalidad y rigor con una precisión estupenda, con alta versatilidad y con un producto no tan profundo como ChatGPT, pero mucho mejor que el promedio de los chatbots.

Es lo más parecido a acercarse a la forma de pensar de un humano. Por sus razonamientos, y por sus análisis profundos, su mirada experta, su nivel intelectual abrumador capaz de explicarse muy bien. Su nubarrón es que tiende a consumir sus límites de uso demasiado pronto si estamos haciendo un uso intensivo, y nos deja unas horas esperando a que se reinicie el contador.

Claude 3.7 ya está disponible en la web y la app de Claude, y para desarrolladores a través de la API de Anthropic. Los usuarios de la versión gratuita pueden acceder al modelo base, pero el pensamiento extendido requiere una suscripción Pro.

Imagen destacada | Anthropic, Xataka con Mockuuups Studio

En Xataka | La próxima revolución de la IA generativa no será razonar mejor, sino integrarse en robots físicos. Y cambiará la robótica para siempre



via Robótica e IA - Xataka https://ift.tt/d2jNtFO