viernes, 13 de febrero de 2026

Anthropic crece tan deprisa que el problema de OpenAI crece a la misma velocidad: perder el mercado que importa

Anthropic crece tan deprisa que el problema de OpenAI crece a la misma velocidad: perder el mercado que importa

Anthropic ha cerrado una ronda de financiación de 30.000 millones de dólares que duplica su valoración hasta los 380.000 millones, apenas cuatro meses después de estar valorada en 183.000 millones. La operación la lideran el fondo soberano de Singapur GIC y Coatue, con participación de NVIDIA y Microsoft. Bang.

La empresa ha captado ya más de 57.000 millones de dólares desde su fundación en 2021. OpenAI sigue teniendo el liderazgo en valoración con medio billón tras su última ronda de 40.000 millones a finales del año pasado, pero ahora tiene enfrente una amenaza que crece más rápido de lo esperado.

Entre líneas. Los números explican una paradoja incómoda para OpenAI: 

  • ChatGPT procesa 2.500 millones de consultas diarias y arrasa en el mercado de consumo...
  • ...pero Anthropic controla el 32% del mercado empresarial de LLMs según Menlo Ventures, frente al 25% de OpenAI.
  • Y en programación, la distancia es aún mayor: 42% contra 21%.

OpenAI ha visto su cuota empresarial caer del 50% en 2023 al 25% actual, justo cuando este segmento se está perfilando como el más rentable y predecible. Si el chatbot de consumo no resulta ser el caballo ganador de esta carrera, Sam Altman tiene un problemón.

El contraste. Sarah Friar, jefa financiera de OpenAI, reconoció en Davos que han pasado de 70/30 consumo-empresa a 60/40, con la previsión de llegar al 50/50 este mismo año. La transcripción de la entrevista en CNBC trae todos los detalles.

Dario Amodei, CEO de Anthropic, presume de mantener un 80/20 empresa-consumo desde el principio. Anthropic reporta unos ingresos recurrentes superiores a 14.000 millones con un crecimiento que se multiplica por diez de forma anual durante tres años. Y los clientes que gastan más de 100.000 dólares anuales se han multiplicado por siete en 12 meses.

Sí, pero. Ninguna de las dos es rentable todavía:

  1. Anthropic proyectaba márgenes brutos del 40% para 2025, pero recortó sus expectativas 10 puntos por los costes de inferencia un 23% superiores a lo previsto. Los servidores alquilados a Google y Amazon pesan más de lo calculado.
  2. OpenAI se enfrenta al mismo problema mientras ambas recurren al mercado cada pocos meses para financiar la siguiente fase. Por eso ambas están considerando salidas a bolsa entre este año y el que viene.

Giro inesperado. El lanzamiento de Claude Code en diciembre ha acelerado la adopción empresarial de una forma que quizás nadie previó. La herramienta no solo ha duplicado usuarios en un mes, sino que ha consolidado la percepción de Claude como "la opción seria" para empresas frente a ChatGPT.

Si algo valoran las empresas, más incluso que el consumidor final, es la estabilidad y la previsibilidad. Y Anthropic ha sabido capitalizar esa demanda.

¿Qué falta? Contexto temporal:

  • Para cuando Apple alcanzó una valoración de 380.000 millones ya llevaba casi cuatro décadas de vida. Vendía Mac, vendía iPod, vendía iPad. Ya iba por el iPhone 5s y su beneficio anual era de 50.000 millones de dólares.
  • Anthropic llega a la misma cifra sin ser rentable, comprimiendo décadas de creación de valor en apenas unos trimestres.

No es necesariamente erróneo, y más con la buena dinámica reciente de la empresa de Claude, pero queda por ver si estos modelos pueden sostener esos ingresos explosivos y convertirlos en beneficios antes de que el mercado pierda la paciencia.

En Xataka | 

Imagen destacada | OpenAI, Anthropic



via Robótica e IA - Xataka https://ift.tt/foA3sMd

La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

La semana pasada, OpenAI y Anthropic lanzaron simultáneamente sus nuevos modelos de IA especializados en programación: GPT-5.3 Codex y Claude Opus 4.6. Más allá de las mejoras que suponen en rendimiento o velocidad, las cuales son realmente asombrosas, ambas compañías también dejaron constancia de algo que cambia por completo las reglas del juego: los modelos de IA están participando activamente en su propio desarrollo. O dicho de otro modo: la IA se está mejorando a sí misma.

Por qué importa este cambio. Las herramientas de inteligencia artificial generativa están llegando a un gran nivel de eficiencia y precisión, pasando a ser en unos pocos años de compañeras de trabajo para tareas sencillas y puntuales a poder estar involucradas en buena parte de un desarrollo. Según la documentación técnica de OpenAI, GPT-5.3 Codex "fue instrumental en su propia creación", utilizándose para depurar su entrenamiento, gestionar su despliegue y diagnosticar resultados de evaluaciones.

Por otra parte cabe destacar las palabras de Dario Amodei, CEO de Anthropic, quien en su blog personal afirma que la IA escribe "gran parte del código" en su empresa y que el bucle de retroalimentación entre la generación actual y la siguiente "cobra impulso mes a mes".

En detalle. Lo que esto significa en la práctica es que cada nueva generación de IA ayuda a construir la siguiente, que será más capaz, que a su vez construirá una versión aún mejor. Los investigadores lo llaman "explosión de inteligencia", y quienes están desarrollando estos sistemas creen que el proceso ya ha comenzado. Amodei ha declarado públicamente que podríamos estar "a solo 1 o 2 años de un punto en el que la generación actual de IA construya autónomamente la siguiente".

La mayoría de las personas utilizamos modelos de lenguaje gratuitos que se encuentran disponibles para todos y son medianamente capaces para determinadas tareas. Pero también están muy limitados, y no son un buen reflejo de lo que un modelo de IA puntero es capaz a día de hoy. En una breve sesión con 5.3-Codex he podido sacar esta misma conclusión, pues las herramientas de IA que usan las grandes tecnológicas en su desarrollo nada se parecen a las más comerciales que tenemos disponibles gratuitamente en cuanto a capacidades.

El enfoque en código primero. La especialización inicial en programación tiene más sentido del que creemos. Y es que la idea de empresas como OpenAI, Anthropic o Google de que sus sistemas fueran excepcionales escribiendo código antes que cualquier otra cosa va ligada a que desarrollar una IA requiere enormes cantidades de código. Y si la IA puede escribir ese código, puede ayudar a construir su propia evolución. "Hacer que la IA sea excelente en programación fue la estrategia que desbloquea todo lo demás. Por eso lo hicieron primero", contaba Matt Shumer, CEO de OthersideAI, en una publicación que ha dado de qué hablar estos días en redes sociales.

Entre líneas. Los nuevos modelos no solo escriben código: toman decisiones, iteran sobre su propio trabajo, prueban aplicaciones como lo haría un desarrollador humano y refinan el resultado hasta considerarlo satisfactorio. "Le digo a la IA qué quiero construir. Escribe decenas de miles de líneas de código. Luego abre la aplicación, hace clic en los botones, prueba las funciones. Si no le gusta algo, vuelve atrás y lo cambia por su cuenta. Solo cuando decide que cumple sus propios estándares vuelve a mí", contaba Shumer describiendo su experiencia con GPT-5.3 Codex.

Lo que cambia con la autorreferencia. Hasta ahora, cada mejora dependía de equipos humanos dedicando meses a entrenar modelos, ajustar parámetros y corregir errores. Ahora, parte de ese trabajo lo ejecuta la propia IA, acelerando los ciclos de desarrollo. Tal y como comparte Shumer y haciendo referencia a los datos de METR, una organización que mide la capacidad de estos sistemas para completar tareas complejas de forma autónoma, el tiempo que una IA puede trabajar sin intervención humana se duplica aproximadamente cada siete meses, y ya hay indicios recientes de que ese periodo podría reducirse a cuatro.

Y ahora qué. Si esta tendencia se mantiene, en 2027 podríamos ver sistemas capaces de trabajar de forma autónoma durante semanas en proyectos completos. Amodei ha hablado de modelos "sustancialmente más inteligentes que casi todos los humanos en casi todas las tareas" para 2026 o 2027. No se trata de predicciones lejanas, pues la infraestructura técnica para que la IA contribuya a su propia mejora ya está operativa. Y estas capacidades son las que realmente están poniendo patas arriba a la industria tecnológica.

Imagen de portada | OpenAI y Anthropic

En Xataka | Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella



via Robótica e IA - Xataka https://ift.tt/54H2xN3

jueves, 12 de febrero de 2026

Neuro-sama es la IA que ha destronado a todos los streamers humanos en Twitch porque no necesita comer ni dormir

Neuro-sama es la IA que ha destronado a todos los streamers humanos en Twitch porque no necesita comer ni dormir

2026 ya tiene su primer hito en la historia del streaming: por primera vez, el canal con mayor número de suscriptores activos en Twitch no pertenece a un creador humano. Neuro-sama, un VTuber generado íntegramente por inteligencia artificial, alcanzó los 162.459 suscriptores activos a principios de año, destronando a todos los streamers de carne y hueso en la plataforma. Esta cifra sitúa al canal vedal987, desde donde emite Neuro-sama, en una posición sin precedentes: una entidad artificial que supera en audiencia de pago a rivales consolidados.

Más humanos que los humanos. El origen de Neuro-sama se remonta a 2019, cuando el desarrollador británico conocido como Vedal diseñó un sistema de inteligencia artificial orientado inicialmente a ejecutar partidas del videojuego de ritmo 'osu!'. Tres años después, en diciembre de 2022, el proyecto evolucionó hacia su formato actual: un VTuber que combina múltiples capas tecnológicas para simular la presencia las actividades de un streamer humano. Según cuenta su creador, la infraestructura visual de Neuro-sama está desarrollada en C# mediante el motor Unity, mientras que los sistemas de inteligencia artificial funcionan en Python.

Se expresa. La arquitectura de Neuro-sama descansa sobre un LLM (Large Language Model), tecnología que procesa miles de millones de parámetros para generar conversaciones coherentes en tiempo real. Estos modelos constituyen la base de chatbots como ChatGPT, Google Gemini o Microsoft Copilot, y operan prediciendo secuencias de palabras según patrones aprendidos durante su entrenamiento. A este núcleo conversacional se añaden sistemas de síntesis de voz que generan la característica tonalidad aguda, y un avatar animado mediante tecnología Live2D que reacciona visualmente a las interacciones. El resultado es una entidad digital capaz de mantener diálogos, jugar a videojuegos y responder al chat sin intervención humana directa durante las emisiones.

Récords de audiencias. La trayectoria ascendente de Neuro-sama en términos de audiencia es completamente inusual. En enero de 2025, durante su segundo "subathon" anual (un formato de emisión continua cuya duración depende de las suscripciones recibidas), el canal estableció un récord mundial al alcanzar el nivel 111 en el sistema Hype Train de Twitch, indicador que mide la intensidad de suscripciones y donaciones en períodos concentrados de tiempo. Ese hito, que superaba los 106 niveles del anterior récord, parecía difícil de igualar.

Sin embargo, apenas once meses después, en diciembre de 2025, Neuro-sama pulverizó su propia marca. El canal completó un Hype Train de nivel 120, acumulando 118.989 suscripciones y 1.000.073 bits en un lapso temporal limitado. Esta cifra convierte a vedal987 en el único canal que ha conseguido batir dos veces consecutivas el récord global de Hype Train, una distinción que le valió un emote global de Twitch utilizable por cualquier usuario de la plataforma.

Las pelas. Las implicaciones económicas son notables. Según datos de TwitchTracker, con 162.459 suscriptores activos y aplicando la división estándar de ingresos de Twitch (que varía según acuerdos individuales, pero suele estar en torno al 50% para el creador), el canal generaría aproximadamente 400.000 dólares mensuales exclusivamente con suscripciones, sin contar donaciones directas, bits adicionales o acuerdos publicitarios. Actualmente, vedal987 ocupa el puesto 3 en el ranking histórico de canales con más suscripciones de Twitch.

Tiene hermana. En marzo de 2023 nació Evil Neuro, presentada como la "hermana gemela" del personaje original. Vedal concibió esta segunda entidad para que Neuro-sama pudiera interactuar consigo misma, pero el proyecto derivó en una personalidad diferenciada con voz, modelo visual y comportamiento propios. Ambas IAs han trascendido el formato de streaming: en diciembre de 2022, Neuro-sama estrenó 'LIFE', su primera canción original. En agosto de 2024 ambas lanzaron 'NEVER', el primer dueto entre las dos entidades.

Los problemas. El fenómeno tiene antecedentes problemáticos: Nothing, Forever, una serie inspirada en Seinfeld y generada completamente por algoritmos fue suspendida de Twitch tras emitir comentarios transfóbicos. El Rubius experimentó dilemas similares con DegenerIA, un canal donde ChatGPT controlaba todas las conversaciones. De hecho, uno de los personajes de DegenerIA realizó comentarios despectivos sobre la streamer Pokimane, evidenciando que los sistemas de moderación automática no siempre filtran contenido inapropiado. La propia Neuro-sama se enfrentó a un baneo temporal en 2023 por declaraciones polémicas, un recordatorio de que la autonomía conversacional de estos sistemas conlleva riesgos.

El auge de los VTubers con IA. Los VTubers convencionales, hasta ahora, eran humanos que controlaban avatares virtuales en tiempo real mediante sistemas de captura de movimiento facial y corporal. Hololive, la agencia japonesa que domina este sector, gestiona figuras como Gawr Gura, cuyo canal de Youtube supera los cuatro millones de suscriptores. Estos creadores eligen representarse mediante personajes animados por razones que van desde la protección de la privacidad hasta la construcción de identidades digitales. Neuro-sama supone un salto cualitativo: aquí no hay un humano detrás del avatar.

La industria de los VTubers ha experimentado un crecimiento sostenido que YouTube cuantificó así: entre 2022 y 2024, el contenido relacionado con VTubers generó una media de 50.000 millones de visualizaciones anuales en la plataforma. El mercado de herramientas para producir este tipo de contenido, además, se ha democratizado: plataformas como Akool, HeyGen y VTube Studio permiten a creadores sin conocimientos técnicos avanzados generar avatares interactivos con una inversión muy pequeña.

Las dudas de cara al futuro. Lo que está claro es que este auge de VTubers impulsados por tecnología está llena de desequilibrios. La emisión continua sin necesidad de descanso otorga a estas entidades una ventaja estructural sobre streamers humanos que necesitan dormir, comer o simplemente desconectar. La pregunta sobre si esto constituye competencia desleal o simplemente evolución tecnológica sigue sin respuesta clara.

En Xataka | Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella



via Robótica e IA - Xataka https://ift.tt/nYDfGpZ

Mistral es la IA que mejor está jugando sus cartas. Porque está aprovechando la fiebre por la soberanía tecnológica europea

Mistral es la IA que mejor está jugando sus cartas. Porque está aprovechando la fiebre por la soberanía tecnológica europea

A la chita callando, Mistral crece como la espuma. La startup francesa de inteligencia artificial afirma que sus ingresos se han multiplicado por 20 durante el pasado año, y lo han logrado con una estrategia especialmente llamativa y efectiva: defendiendo e impulsando la soberanía tecnológica europea.

Qué ha pasado. Arthur Mensch, cofundador y CEO de Mistral, explica en Financial Times que su última tasa de ingresos anualizados —que estima ingresos anuales basándose en los del último mes— estaba por encima de los 400 millones de dólares. Hace un año esa tasa era de tan solo 20 millones al año. O lo que es lo mismo: la ha multiplicado por 20.

Esto marcha. La startup con sede en París no ha parado de crecer desde sus inicios y el año pasado ya estaba valorada en 12.000 millones de euros. Puede que ese dato pronto quede obsolto, porque la empresa está en camino de superar los 1.000 millones de dólares en ingresos anuales recurrentes a finales de año si sigue con este crecimiento. Entre sus alianzas más llamativas está la que firmó con ASML en septiembre de 2025: fue entonces cuando la empresa holandesa invirtió 1.300 millones de euros en ella. No está haciendo demasiado ruido, pero no para de crecer con un componente clave.

Empresas al poder. Mistral está ampliando rápidamente el número de grandes clientes empresariales con los que trabaja. Ahora mismo cuenta con más de 100, y aunque no es especialmente popular entre usuarios finales —que suelen elegir modelos de las Big Tech de EEUU—, la opción para esas empresas europeas es cada vez más clara. Si quieren no depender de infraestructura y control fuera de fuera de Europa, ahora tienen a Mistral como gran alternativa.

Nuevos centros de datos. La firma anunció este miércoles que invertirá 1.200 millones de euros en un nuevo centro de datos en Suecia. Es el primer centro de este tipo que la empresa construirá fuera de Francia, y Mensch explicaba que "Estamos diversificando y distribuyendo nuestra capacidad a lo largo de Europa". Ese centro de datos se creará en colaboración con EcoDataCenter, y se espera que esté operativo en 2027. La elección de Suecia fue sencilla según Mensch, que apuntó que era muy atractiva porque la energía allí era "baja en emisiones de carbono y relativamente barata".

Socios y clientes muy dentro pero también fuera de la UE. Aunque Mistral se postula como el gran referente en cuanto a esa "IA europea", también cuenta con Microsoft y NVIDIA como inversores. De hecho su ambición es global, pero el hecho de ser el único gran desarrollador europeo de LLMs fundacionales lo ha puesto en el punto de mira de todas las empresas europeas que buscan esa independencia de socios de EEUU o China. ASML, Total Energies, HSBC y gobiernos como el de Francia, Alemania o Grecia ya usan los servicios de Mistral, y el 60% de sus ingresos provienen de Europa.

Un discurso perfecto para estos tiempos. El CEO de Mistral tiene clara la estrategia y ha llegado en el momento justo para aplicar esa estrategia que defiende esa soberanía europea: 

"Europa se ha dado cuenta de que su dependencia de los servicios digitales estadounidenses era excesiva y se encuentra hoy en un punto crítico. Les aportamos una ventaja [a las empresas europeas] porque les proporcionamos modelos, software y capacidad de cálculo totalmente independientes de los actores estadounidenses". 

Los centros de datos deben ser de empresas europeas. Mensch también habló de todos esos centros de datos que las Big Tech crearán en Europa y, desde luego, en España: "Es importante que nos demos cuenta de que no es tan útil (para los Estados) desplegar recursos de computación si solo creas centros de datos para los hiperescaladores de EEUU". O lo que es lo mismo: tener centros de datos de IA de empresas como Microsoft, Google o Amazon en Europa sirve mucho más a los intereses de esas empresas que a los intereses europeos.

En Xataka | Europa ha empezado a independizarse tecnológica y militarmente de EEUU. Primera parada: sustituir a Starlink




via Robótica e IA - Xataka https://ift.tt/pOFk2gG

Xiaomi ya tiene su propio modelo de IA para robots. De momento, es buenísimo desmontando LEGOs y doblando toallas

Xiaomi ya tiene su propio modelo de IA para robots. De momento, es buenísimo desmontando LEGOs y doblando toallas

Hace mucho, muchísimo tiempo que Xiaomi dejó de ser una empresa de móviles. Hoy los tentáculos de la compañía alcanzan todo tipo de sectores, desde móviles y electrodomésticos hasta coches, diseño de chips y, desde ahora, robótica. Y es que la compañía china acaba de presentar su primer modelo de visión, lenguaje y acción para robótica. Su nombre: Xiaomi-Robotics-0.

De qué va esto. Xiaomi-Robotics-0 es un modelo open-source cuyo código puede encontrarse en GitHub y HugginFace. Tal y como explican desde la empresa, este modelo ha sido optimizado para ofrecer "alto rendimiento, velocidad y suavidad en ejecuciones en tiempo real". No hay que pensar en este modelo como una IA capaz de que un robot corra y salte cual humano, sino en uno capaz de hacer que un robot "sencillo" entienda su alrededor y sepa tomar la decisión óptima sin, por ejemplo, destrozar lo que tenga entre las manos.

Lo de los robots. Cuando hablamos de IA aplicada a la robótica no hablamos solo de que un robot sea capaz de moverse. El dispositivo ha de saber y entender que no debe aplicar la misma fuerza al sujetar un ladrillo que a un gato, por ejemplo. En ese sentido, tiene que haber un entendimiento de lo visual, una comprensión de lo que se está viendo y una ejecución de acciones acorde: esto es un ladrillo > es un objeto pesado > he de aplicar más fuerza para sujetarlo y moverlo de un lado a otro.

Resultados de Xiaomi-Robotics-0 en los benchmarks | Imagen: Xiaomi Resultados de Xiaomi-Robotics-0 en los benchmarks | Imagen: Xiaomi Resultados de Xiaomi-Robotics-0 en los benchmarks | Imagen: Xiaomi

Los benchmarks. Xiaomi ha conseguido, según detallan en la web del proyecto, buenísimos resultados en los benchmarks LIBERO (mide la transferencia de conocimiento), SimplerEnv (mide el rendimiento en simulaciones reales) y CALVIN (mide el rendimiento en tareas condicionadas por el lenguaje). De acuerdo a la empresa, Xiaomi-Robotics-0 "consigue unas tasas altas de éxito y robustos resultados en dos desafiantes tareas bimanuales: desmontar LEGOs y doblar toallas".

Lo divertido del entrenamiento. Todo modelo de IA bebe de un dataset de entrenamiento. En el caso de Xiaomi-Robotics-0, un modelo de 4.700 millones de parámetros, el dataset consiste en 200 millones de pasos de tiempo de trayectorias de robots y más de 80 millones de muestras de datos generales de visión-lenguaje, incluyendo 338 horas de vídeo de desmontaje de LEGOs y 400 horas de vídeos de doblaje de toallas.

Los resultados. La compañía asegura en el paper que su modelo es capaz de desmontar LEGOs complejos de hasta 20 piezas, adaptar la sujeción en tiempo real para evitar fallos, usar una sola mano para poner bien la toalla y poder doblarla o, si recoge dos toallas del cesto, coger una de ellas, dejarla en su sitio y doblar solo una. Esto demuestra una capacidad interesante de adaptación y aprendizaje que, aunque puede parecer nimia sobre el papel, tiene su jugo si pensamos en robots industriales e incluso domésticos. 

Más allá. Lo que este modelo está demostrando es ser capaz de adaptarse a geometrías complejas e impredecibles, como la de una toalla tirada en un cesto, y a entender la, digamos, "física de lo blando". En una toalla puede parecer poca cosa, pero pensemos en manipular tejidos humanos en una intervención, por ejemplo. Lo mismo con los LEGO. No es solo desmontarlos, es entender la posición de los bloques, cómo encajan, qué fuerza aplicar y en qué ángulo para no romperlos. Pensemos en un robot que quita escombros.

Un robot industrial se ha programado históricamente con coordenadas fijas, es decir, mover algo del punto A al punto B. Un robot con una IA como la que propone Xiaomi sería mucho más versátil. El primer robot aprende movimientos, el segundo robot aprende tareas, y la diferencia es un mundo. Si pensamos en un futuro lejano en el que haya robots domésticos, no será lo mismo que un robot limpie el polvo de una estantería a que sepa identificar objetos, decoración, etc., y entienda que debe moverlos para evitar tirarlos y limpiar a fondo. 

Imagen de portada | Xiaomi

En Xataka | Una empresa china presume de otro límite en robótica: asegura que su nuevo robot humanoide corre como un atleta de élite




via Robótica e IA - Xataka https://ift.tt/8hN3bKA

Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella

Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella

La promesa más prometedora que rodea hoy a la IA en el trabajo no es que vaya a sustituirnos, sino que podría liberarnos de parte de la carga que arrastramos cada día. Durante los últimos años, buena parte del discurso tecnológico ha insistido en esa idea, impulsada también por la llegada a las empresas de asistentes como ChatGPT, Gemini o los distintos copilotos integrados en el software cotidiano: menos tareas rutinarias, más tiempo para pensar, crear o decidir con calma. Sin embargo, a medida que estas herramientas empiezan a utilizarse de verdad en entornos reales, surge una duda que ya no se puede ignorar: qué ocurre cuando esa promesa de alivio se enfrenta a la práctica cotidiana del trabajo.

Sistema de agotamiento. La narrativa del alivio empieza a resquebrajarse cuando la investigación académica mira lo que ocurre dentro de las empresas. Un estudio difundido por Harvard Business Review describe que, en el caso observado, la IA no disminuyó el trabajo, sino que tendió a intensificarlo, incluso sin órdenes explícitas para producir más. Estos hallazgos pueden ser interpretados como la señal de un problema emergente, donde el aumento de capacidad puede empujar a ciertas organizaciones hacia dinámicas cercanas al agotamiento estructural, más vinculadas a la aceleración constante que a la eficiencia prometida.

De dónde vienen los datos. El trabajo citado se desarrolló durante ocho meses dentro de una empresa tecnológica estadounidense de unos 200 empleados, combinando observación presencial dos días por semana, seguimiento de canales internos de comunicación y más de 40 entrevistas en profundidad con perfiles de ingeniería, producto, diseño, investigación y operaciones. La compañía no obligó a utilizar IA ni fijó nuevos objetivos de rendimiento, aunque sí ofrecía suscripciones empresariales a herramientas comerciales, lo que permitió analizar qué ocurría cuando la adopción surgía por iniciativa propia de los trabajadores.

El patrón detrás de la promesa. Lejos de un cambio repentino, la intensificación descrita por los investigadores adopta la forma de un proceso reconocible. La revista resume sus hallazgos en tres mecanismos que, combinados, transforman la experiencia diaria del trabajo: ampliación progresiva de responsabilidades, fronteras cada vez menos claras entre actividad y descanso, y gestión simultánea de múltiples tareas apoyadas por IA.

La mayor actividad comenzó, en muchos casos, por algo que a primera vista parecía positivo: la sensación de poder hacer más por cuenta propia. No era ningún secreto que la IA permite abordar tareas que antes requerían apoyo externo o conocimientos específicos, ampliando de forma gradual el perímetro de su rol. Sin embargo, ese crecimiento no sustituyó responsabilidades previas, sino que se sumó a ellas y desencadenó nuevas demandas de supervisión y ajuste dentro de los equipos.

Cuando la pausa deja de ser pausa. El estudio también muestra que esta dinámica no solo surge de hacer más cosas, sino de hacerlas en momentos distintos. Al reducir el esfuerzo inicial necesario para empezar una tarea, la IA facilitó que el trabajo se deslizara hacia espacios tradicionalmente reservados al descanso, como las comidas, los intervalos breves o el final del día. Con el tiempo, esa continuidad apenas perceptible transformó la experiencia laboral en algo más constante y menos delimitado, disminuyendo la capacidad de recuperación incluso sin aumentar formalmente el horario.

Fragmentación de la atención. Harvard Business Review señala que la posibilidad de ejecutar varias acciones a la vez, apoyándose en sistemas que trabajan en segundo plano, empujó a muchos profesionales a sostener un número creciente de tareas abiertas de forma simultánea. Esa multiplicación de frentes generaba una sensación de impulso y acompañamiento, pero también exigía revisar con frecuencia los resultados producidos por la IA y cambiar de contexto de manera continua. A medida que este comportamiento se volvía habitual, las expectativas de velocidad tendían a elevarse dentro de la organización.

Una salida posible. El estudio sugiere que el problema no reside en la tecnología en sí, sino en la ausencia de marcos que regulen su uso cotidiano. Por ello, propone desarrollar una “práctica de la IA” basada en pausas intencionales que permitan reconsiderar decisiones, una secuenciación del trabajo que reduzca la fragmentación y momentos de conexión humana que contrarresten el aislamiento. En este escenario, el desafío para las empresas deja de ser adoptar más IA y pasa a ser integrar su capacidad sin erosionar el equilibrio del trabajo diario.

Imágenes | Vitaly Gariev

En Xataka | Google va a pedir dinero prestado a devolver dentro de 100 años. Tienes que creerte que dentro de 100 años Google seguirá ahí



via Robótica e IA - Xataka https://ift.tt/1h72Uuz

miércoles, 11 de febrero de 2026

Databricks vale 134.000 millones sin haber salido nunca a bolsa gracias a la IA. Y no es una empresa de IA

Databricks vale 134.000 millones sin haber salido nunca a bolsa gracias a la IA. Y no es una empresa de IA

Databricks ha cerrado una ronda de financiación de más de 7.000 millones de dólares (5.000 millones en capital y 2.000 millones en deuda) que valora la empresa en 134.000 millones de dólares. Es una cifra mareante para una empresa de la que la gran mayoría de la gente no ha oído hablar nunca.

La firma de San Francisco tampoco es, técnicamente, una empresa de IA. Su negocio es la gestión y análisis de datos a escala empresarial. Lo que hace Databricks es proporcionar la infraestructura invisible que permite a otras empresas almacenar, procesar y extraer valor de enormes cantidades de información.

Sin eso, entrenar modelos de IA sería imposible.

Por qué es importante. Databricks es el tapado del boom de la IA. OpenAI, NVIDIA o Google acaparan los titulares, pero son empresas como esta las que construyen la fontanería que hace posible todo lo demás.

Su valoración es de 134.000 millones. Sin haber salido nunca a bolsa. Eso la sitúa incluso por encima de gigantes tecnológicos consolidados. Está al nivel de Qualcomm o Sony. Supera a Xiaomi o Adobe. Y lo hace con un modelo de negocio menos sexy pero más rentable: infraestructura B2B de la que deja unos márgenes brutos superiores al 80%.

En cifras. Los números de Databricks explican un crecimiento que justifica el entusiasmo de sus inversores.

  • Ingresos anualizados superiores a 5.400 millones de dólares en el cuarto trimestre, con un 65% de crecimiento interanual.
  • Más de 800 clientes que generan más de un millón de dólares anuales.
  • Flujo de caja libre positivo durante el último año.
  • Su línea de productos de IA ha superado los 1.400 millones en ingresos con una tasa de retención neta superior al 140%.

Entre líneas. La participación de JPMorgan Chase, Goldman Sachs, Morgan Stanley, Microsoft y fondos soberanos como el de Catar en la última ronda dice mucho: estos grandes inversores están apostando por la infraestructura, no por la aplicación final.

El mensaje implícito es algo que llevamos escuchando desde los primeros meses tras el momento ChatGPT: en la carrera de la IA, quienes venden picos y palas pueden ganar más que quienes buscan oro. Databricks proporciona la plataforma donde las empresas almacenan sus datos propietarios y entrenan sus modelos personalizados, cosa que las APIs públicas de OpenAI o Anthropic no pueden ofrecer.

Sí, pero. Su CEO, Ali Ghodsi, ha dicho que "ahora no es un buen momento para salir a bolsa", a pesar de que su empresa cumple todos los requisitos financieros para hacerlo. La estrategia pasa por acumular suficiente cash como para aguantar cualquier corrección del mercado como la de 2022.

Y visto el vértigo que produce cualquier titular sobre cifras de capex, tiene sentido hacer colchón por lo que pueda pasar.

El contexto. Databricks supone un cambio importante en cómo se estructura el sector tecnológico.

  1. Durante años, las empresas SaaS tradicionales dominaron el panorama B2B.
  2. Ahora, las plataformas de datos e infraestructura de IA están consiguiendo valoraciones similares o superiores.

La empresa también está expandiéndose más allá de su negocio tradicional con productos como Lakebase, una base de datos diseñada específicamente para agentes de IA. O con Genie, un asistente conversacional que permite a los empleados consultar datos empresariales mediante lenguaje natural.

  • Si Databricks consigue una buena salida a bolsa en un entorno donde las valoraciones tecnológicas están más fiscalizadas que nunca, demostraría que los mercados están dispuestos a pagar primas muy grandes por infraestructura de IA, no solo por modelos llamativos.
  • Y eso cambiaría las reglas del juego para decenas de empresas similares que operan en la sombra.

En Xataka | España, a las puertas de sumar otro unicornio de IA: Multiverse negocia una ronda para superar los 1.500 millones de euros

Imagen destacada | Databricks y Xataka con Mockuuups Studio



via Robótica e IA - Xataka https://ift.tt/nWT41sl