miércoles, 11 de febrero de 2026

Databricks vale 134.000 millones sin haber salido nunca a bolsa gracias a la IA. Y no es una empresa de IA

Databricks vale 134.000 millones sin haber salido nunca a bolsa gracias a la IA. Y no es una empresa de IA

Databricks ha cerrado una ronda de financiación de más de 7.000 millones de dólares (5.000 millones en capital y 2.000 millones en deuda) que valora la empresa en 134.000 millones de dólares. Es una cifra mareante para una empresa de la que la gran mayoría de la gente no ha oído hablar nunca.

La firma de San Francisco tampoco es, técnicamente, una empresa de IA. Su negocio es la gestión y análisis de datos a escala empresarial. Lo que hace Databricks es proporcionar la infraestructura invisible que permite a otras empresas almacenar, procesar y extraer valor de enormes cantidades de información.

Sin eso, entrenar modelos de IA sería imposible.

Por qué es importante. Databricks es el tapado del boom de la IA. OpenAI, NVIDIA o Google acaparan los titulares, pero son empresas como esta las que construyen la fontanería que hace posible todo lo demás.

Su valoración es de 134.000 millones. Sin haber salido nunca a bolsa. Eso la sitúa incluso por encima de gigantes tecnológicos consolidados. Está al nivel de Qualcomm o Sony. Supera a Xiaomi o Adobe. Y lo hace con un modelo de negocio menos sexy pero más rentable: infraestructura B2B de la que deja unos márgenes brutos superiores al 80%.

En cifras. Los números de Databricks explican un crecimiento que justifica el entusiasmo de sus inversores.

  • Ingresos anualizados superiores a 5.400 millones de dólares en el cuarto trimestre, con un 65% de crecimiento interanual.
  • Más de 800 clientes que generan más de un millón de dólares anuales.
  • Flujo de caja libre positivo durante el último año.
  • Su línea de productos de IA ha superado los 1.400 millones en ingresos con una tasa de retención neta superior al 140%.

Entre líneas. La participación de JPMorgan Chase, Goldman Sachs, Morgan Stanley, Microsoft y fondos soberanos como el de Catar en la última ronda dice mucho: estos grandes inversores están apostando por la infraestructura, no por la aplicación final.

El mensaje implícito es algo que llevamos escuchando desde los primeros meses tras el momento ChatGPT: en la carrera de la IA, quienes venden picos y palas pueden ganar más que quienes buscan oro. Databricks proporciona la plataforma donde las empresas almacenan sus datos propietarios y entrenan sus modelos personalizados, cosa que las APIs públicas de OpenAI o Anthropic no pueden ofrecer.

Sí, pero. Su CEO, Ali Ghodsi, ha dicho que "ahora no es un buen momento para salir a bolsa", a pesar de que su empresa cumple todos los requisitos financieros para hacerlo. La estrategia pasa por acumular suficiente cash como para aguantar cualquier corrección del mercado como la de 2022.

Y visto el vértigo que produce cualquier titular sobre cifras de capex, tiene sentido hacer colchón por lo que pueda pasar.

El contexto. Databricks supone un cambio importante en cómo se estructura el sector tecnológico.

  1. Durante años, las empresas SaaS tradicionales dominaron el panorama B2B.
  2. Ahora, las plataformas de datos e infraestructura de IA están consiguiendo valoraciones similares o superiores.

La empresa también está expandiéndose más allá de su negocio tradicional con productos como Lakebase, una base de datos diseñada específicamente para agentes de IA. O con Genie, un asistente conversacional que permite a los empleados consultar datos empresariales mediante lenguaje natural.

  • Si Databricks consigue una buena salida a bolsa en un entorno donde las valoraciones tecnológicas están más fiscalizadas que nunca, demostraría que los mercados están dispuestos a pagar primas muy grandes por infraestructura de IA, no solo por modelos llamativos.
  • Y eso cambiaría las reglas del juego para decenas de empresas similares que operan en la sombra.

En Xataka | España, a las puertas de sumar otro unicornio de IA: Multiverse negocia una ronda para superar los 1.500 millones de euros

Imagen destacada | Databricks y Xataka con Mockuuups Studio



via Robótica e IA - Xataka https://ift.tt/nWT41sl

ByteDance no se conforma con TikTok y acaba de iniciar una nueva carrera: una que le lleve a crear un chip de IA propio

ByteDance no se conforma con TikTok y acaba de iniciar una nueva carrera: una que le lleve a crear un chip de IA propio

ByteDance está desarrollando un chip propio de inteligencia artificial y para fabricarlo está ya negociando con Samsung Electronics. Es al menos lo que señalan dos fuentes cercanas al proyecto, que convertiría a la empresa china en un competidor aún más feroz en el segmento que quiere revolucionar nuestro mundo.

TikTok ya no importa (tanto). TikTok ha convertido a ByteDance en un imperio dentro del segmento de las redes sociales, pero la empresa china no se ha quedado ahí. De hecho, se ha volcado totalmente en el mundo de la IA generativa y ya tiene modelos realmente excepcionales como Doubao (competidor de GPT-5 o Gemini) o Seedream. Lo único que le faltaba es un chip propio de IA, pero atentos, porque eso puede tener solución a corto plazo.

Qué ha pasado. Fuentes cercanas a los planes de la compañía han indicado que ByteDance está trabajando en el diseño y desarrollo de un nuevo chip propio de IA al que han bautizado como Seedchip, en la línea de sus modelos Seedream de IA generativa de imagen y vídeo. Dicho chip podría ser fabricado por Samsung Electronics, con la que la empresa china está manteniendo conversaciones. Un portavoz de ByteDance asegura que esos planes sobre un chip propio son imprecisos, pero no detalla por qué.

Van a toda pastilla. El proyecto parece estar avanzando a gran velocidad y ByteDance tiene como objetivo recibir las primeras muestras de ese chip a finales de marzo. La compañía pretende fabricar al menos 100.000 unidades del chip que además estarían especialmente centrados en la inferencia de sus modelos de IA y no al entrenamiento. Una de las fuentes consultadas indica que en ByteDance esperan aumentar luego la producción a 350.000 unidades, pero no es especifica la franja temporal para ese objetivo. 

La inferencia es cada vez más importante. Centrarse en chips para inferencia tiene mucho sentido a nivel económico. El entrenamiento de modelos como Doubao requiere la fuerza bruta de los chips de NVIDIA y esa parte está bien cubierta. Sin embargo, hacer que su IA funcione para millones de usuarios simultáneos es un apartado en el que ByteDance puede ahorrar miles de millones si tiene un chip propio optimizado para su código.

Por qué asociarse con Samsung. Teniendo en cuenta que China intenta evitar dependencias de empresas extranjeras, llama la atención esa alianza con Samsung. Sin embargo, puede haber un razón poderosa para haber tomado esa decisión: las negociaciones con Samsung incluyen aparentemente el acceso al suministro de chips de memoria que en la actualidad están prácticamente agotados. Y sobre todo, a unos chips muy especiales: los HBM.

Una alianza delicada. La alternativa clara a esa asociación con Samsung sería fabricar por ejemplo con SMIC o incluso optar por Huawei, que se está convirtiendo en la "NVIDIA china" y cuenta ya con chips de IA realmente destacables. Elegir a Samsung parece mandar un mensaje comprometedor: que la tecnología de fabricación china sigue por detrás de la de fabricantes como Samsung.

ByteDance ya lo intentó. En junio de 2024 ya aparecieron datos que sugerían que ByteDance se había aliado con Broadcom para desarrollar un chip avanzado de IA. En aquel momento el socio elegido para fabricar dichos chips era TSMC, pero parece que dicho proyecto ha acabado difuminándose.

Todos quieren tener chip propio. La ambición de ByteDance sigue la tendencia general del mercado: casi todas las grandes tecnológicas han decidido crear sus propios chips avanzados de IA. Google tiene sus TPU, Microsoft sus Maia, y Amazon sus Trainium para reducir su dependencia de NVIDIA. Y por supuesto las principales rivales chinas de ByteDance, Alibaba (con su Zhenwu) y Baidu —que tiene su división Kunlunxin trabajando en ello—, tienen sus propios diseños. 

Pero siguen apostando por NVIDIA. Este esfuerzo pretende transformar sus negocios de vídeo corto y servicios de infraestructura en la nube, pero aun confirmándose y teniendo éxito tardarán en convertirlo en una verdadera referencia. ByteDance planea invertir 22.000 millones de dólares en el ámbito de la IA, y la mayoría de ese presupuesto está destinado a comprar chips de NVIDA que incluyen los H200. 

Imagen | Xataka con FreePik



via Robótica e IA - Xataka https://ift.tt/uLDV9P1

"El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía

"El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía

En un movimiento más propio del "pingüino nihilista" que del responsable de seguridad de uno de los principales protagonistas del desarrollo de la IA, Mrinank Sharma, jefe de seguridad de inteligencia artificial en Anthropic ha anunciado su renuncia con una carta pública en su perfil de X y consagrará su vida a escribir poesía.

En su comunicado, Sharma no solo explicó por qué deja la compañía que desarrolla los modelos de Claude, sino que describió el estado actual del desarrollo de la IA, con un lenguaje que mezcla alarma con reflexión personal. "El mundo está en peligro", aseguraba el ya exdirectivo de Anthropic.

El contexto: quién es y qué hacía en Anthropic. Mrinank Sharma dirigía el Safeguards Research Team de Anthropic, un grupo de investigación centrado en estudiar los riesgos asociados a sistemas de IA.

Dentro de Anthropic, el trabajo de Sharma incluía desarrollar defensas frente a riesgos como el bioterrorismo asistido por IA y estudiar fenómenos como la sicofancia (la tendencia de los modelos de IA a la adulación del usuario), así como investigar cómo la IA puede influir en la percepción humana y cambiar comportamientos culturales.

Se va, pero deja un mensaje. La carta, casi criptica, que Sharma publicó en X se hizo rápidamente viral por los mensajes que contenía. En ella, expresó sus preocupaciones con un tono que trasciende lo técnico. Una de las citas que más ha llamado la atención: "El mundo está en peligro. Y no solo por la IA, o las armas biológicas, sino por una serie de crisis interconectadas que se están desarrollando en este mismo momento".

Más allá de la literalidad casi apocalíptica, Sharma advirtió que la humanidad se estaba acercando a un punto crítico en el que el desarrollo de la IA se estaba enfrentando a dilemas éticos para quienes la desarrollan "nuestra sabiduría debe crecer al mismo ritmo que nuestra capacidad para afectar el mundo, de lo contrario enfrentaremos las consecuencias".

Trabajar para quedarte sin trabajo. Sharma no es el único que se plantea ese dilema ético. Según fuentes de The Telegraph, otros empleados de Anthropic han manifestado estar preocupados por el enorme salto evolutivo de los últimos modelos de IA. "Me siento como si viniera a trabajar todos los días para quedarme sin trabajo", reconocía uno de los empleados al medio británico.

En cierto modo es así, ya que estos empleados están trabajando en el desarrollo de una tecnología que, con toda probabilidad, cambie la naturaleza de su trabajo, y el de millones de personas, a pocos años vista.

¿Eso es bueno o es malo? Una primera lectura de la carta deja la sensación de que estos trabajadores están desarrollando el arma que destruirá a la humanidad. Sin embargo, una lectura entre líneas deja a Anthropic en una situación pionera frente a sus rivales de OpenAI, Microsoft o xAI: están logrando avanzar a un ritmo que abruma incluso a sus desarrolladores. Una sensación que no parece producirse en las plantillas de otras empresas. ¿Será que sus modelos no están en ese punto de evolución?

"A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es permitir que nuestros valores guíen nuestras acciones. Constantemente enfrentamos presiones para dejar de lado lo que más importa", escribía Sharma.

El giro poético. Además de las reflexiones sobre los riesgos globales que percibe, Sharma anunció que su próximo paso profesional será muy distinto al que tenía hasta ahora. En su carta mencionó su intención de dedicar tiempo a lo que él denominó "la práctica del discurso valiente" a través de la poesía. Este cambio de lA por la poesía ha sido interpretado como un signo de insatisfacción frente al ritmo y el enfoque imperantes en la industria tecnológica de la IA.

Al igual que Sharma, en las últimas semanas otras figuras clave en el desarrollo de las IA de Anthropic, han anunciado su dimisión. Harsh Mehta y Behnam Neyshabur también anunciaron hace unos días que abandonaban la compañía. Sin embargo, en estos casos, se hacía el anuncio de salida y, a renglón seguido, se anunciaba un nuevo proyecto de IA. Es decir, que lejos de los postulados éticos que se planteaba Sharma, su intención iba más en la línea de cavar en su propia mina de oro y no en la de otros.

En Xataka | Daniela Amodei, cofundadora de Anthropic: "estudiar humanidades será más importante que nunca"

Imagen | mrinank sharma, Anthropic



via Robótica e IA - Xataka https://ift.tt/10LlPCy

martes, 10 de febrero de 2026

Google ha pedido dinero prestado a devolver en 2126. La IA se financia ya con deuda a un siglo vista

Google ha pedido dinero prestado a devolver en 2126. La IA se financia ya con deuda a un siglo vista

Alphabet acaba de cerrar la mayor operación de deuda de su historia: 20.000 millones de dólares en bonos. Y prepara algo más raro: una emisión en libras que incluye un bono a 100 años. Vence en 2126.

Por qué es importante. Ninguna gran tecnológica ha emitido un bono centenario desde IBM en 1996. Que Google lo haga ahora dice mucho sobre la escala de inversión que requiere la IA. Y que esta carrera se financia con deuda salvaje.

El trasfondo:

  • Un bono es dinero prestado. La empresa paga intereses periódicos y devuelve el capital al vencimiento. Lo rutinario son plazos de 5, 10 o 30 años. Lo extraordinario es pedir dinero a un siglo vista.
  • Los inversores hicieron cola: la demanda superó los 100.000 millones, cinco veces lo que Google pedía. Alphabet planeaba captar 15.000 millones, pero subió la oferta a 20.000 millones ante el aluvión.

Entre líneas. Un bono a un siglo años es una declaración de intenciones: "estamos construyendo infraestructura que durará generaciones". Google está transmitiendo así que la IA no es una moda de tres años ni algo que olvidaremos tras el pinchazo, sino algo que transformará la economía a largo plazo como lo hicieron los ferrocarriles o la electricidad.

Sí, pero. Michael Burry, el inversor que anticipó la crisis de 2008, ha lanzado una advertencia que se ha viralizado: la última tecnológica que emitió un bono centenario fue Motorola en 1997. Y según él, ese fue "el último año en que Motorola importó".

En 1997 era una empresa top 25 en Estados Unidos, pero un año después, Nokia le adelantó y luego llegaron el iPhone, Android, los fabricantes chinos... y ahora, en manos de Lenovo, a duras penas encaja en el top 10 de fabricantes de móviles. Burry pregunta: ¿es esto confianza o el gesto que se hace justo en la cumbre, antes de que todo cambie?

Las cifras. El gasto de Alphabet en infraestructura este año puede llegar, según cifras publicadas por la empresa, a los 185.000 millones de dólares. Más que los tres años anteriores juntos. Son centros de datos, chips, capacidad de computación para IA...

Las cinco otras grandes que han aumentado su capex (Amazon, Google, Meta, Microsoft y Oracle; Apple lo ha reducido) emitieron 121.000 millones en bonos el año pasado. Cuatro veces más que la media anual de 2020-2024.

¿Principal ganador? Google, sin duda. Emitir deuda a muy largo plazo bloquea los tipos de interés favorables durante décadas.

  • Si suben, Google ya tiene su financiación.
  • Si bajan, puede recomprar la deuda antes.

Además, los intereses son deducibles, así que sale más barato que usar el propio efectivo. Y no diluye a los accionistas. Win-win-win.

Qué está ocurriendo. La era en que las tecnológicas crecían únicamente recurriendo a sus beneficios ha terminado. El gasto descomunal que requiere la infraestructura para la IA les hace usar instrumentos financieros que hasta ahora apenas habían necesitado.

Ya no son startups de software. Son las mayores constructoras de infraestructura del siglo XXI. Y necesitan muchísimo capital.

La gran pregunta. ¿Dar bonos a un siglo es visión o es un exceso de confianza? Probablemente ambas:

Lo que es seguro es que las tecnológicas compiten ahora en los mercados de deuda como los bancos y las grandes industriales. Y eso define en qué se ha convertido esta nuestra industria.

En Xataka | El lujo intelectual de nuestra era es sostener nuestra atención, la IA lo está agravando

Imagen destacada | Mitchell Luo



via Robótica e IA - Xataka https://ift.tt/tPjahCb

España, a las puertas de sumar otro unicornio de IA: Multiverse negocia una ronda para superar los 1.500 millones de euros

España, a las puertas de sumar otro unicornio de IA: Multiverse negocia una ronda para superar los 1.500 millones de euros

En plena carrera global por dominar la inteligencia artificial, donde el liderazgo suele concentrarse en Estados Unidos o China, empieza a asomar una historia distinta con acento español. Multiverse Computing, una startup con sede en San Sebastián, lleva tiempo ganando visibilidad entre inversores y grandes empresas, pero un último movimiento eleva claramente la escala de la conversación. La empresa estaría negociando una nueva ronda de financiación que podría situarla en la antesala de los unicornios, una categoría reservada a muy pocas firmas europeas en este sector.

Nuevo unicornio español. La información que sitúa a Multiverse en ese posible salto procede, por ahora, de fuentes citadas por Bloomberg que describen una negociación en marcha. Según esas personas familiarizadas con la operación, la compañía estaría en conversaciones para captar en torno a 500 millones de euros en nueva financiación, una cifra que implicaría superar los 1.500 millones de valoración. El calendario que manejan esas fuentes apunta al primer semestre de 2026 y a la entrada de nuevos inversores, lo que deja la operación en el terreno de lo probable, pero todavía no confirmado.

Qué hace la compañía. Multiverse Computing, creada en 2019, se centra en desarrollar herramientas de software que permitan a las organizaciones utilizar inteligencia artificial con menor coste energético y computacional. Su tecnología busca reducir el tamaño de los modelos sin sacrificar precisión, un enfoque que responde a uno de los grandes problemas actuales del sector, el elevado consumo de recursos que exige entrenar y ejecutar sistemas avanzados. Esa promesa de eficiencia es la que está atrayendo la atención de inversores y socios industriales.

Contexto financiero. En marzo de 2025, retratábamos cómo la compañía recibía una inversión de 67 millones de euros a través de la Sociedad Española para la Transformación Tecnológica, el vehículo público destinado a impulsar proyectos estratégicos. Apenas unos meses después, en junio de 2025, volvíamos a escribir sobre ella en relación a una ronda de 189 millones de euros con la participación de varios fondos internacionales y corporativos. Esa sucesión de operaciones sitúa la negociación descrita por Bloomberg en otra escala, ya no como una inyección para crecer, sino como el paso que podría redefinir su valoración dentro del mercado europeo de la IA.

Detrás de escena. Bloomberg sitúa los ingresos anuales recurrentes de Multiverse en 100 millones de euros en enero de 2026, un indicador utilizado por las startups de software para mostrar ingresos recurrentes futuros más que resultados contables presentes. En este punto debemos ser muy cuidadosos: se trata de una métrica indicativa de tracción, no un sinónimo de beneficios. Esa diferencia es relevante en un sector donde la expansión suele apoyarse en inversión sostenida y gasto elevado. Por eso, más allá de la tracción comercial, quedará por comprobar cuál es su equilibrio real entre ingresos, costes y sostenibilidad financiera en la siguiente fase de desarrollo.

Imágenes | Multiverse

En Xataka | Dreame empezó como proveedor de Xiaomi. Ocho años después quiere ser la próxima Samsung y ha pagado 10 millones para demostrarlo



via Robótica e IA - Xataka https://ift.tt/bP1Uz4k

El MareNostrum 5 crece para adaptarse a la IA: contará con 129 millones de euros para lograrlo

El MareNostrum 5 crece para adaptarse a la IA: contará con 129 millones de euros para lograrlo

Es el decimocuarto supercomputador del mundo según la lista TOP500, está en España y se llama MareNostrum 5. Pero es además un sistema "vivo" porque sigue evolucionando y adaptándose a los nuevos tiempos. De hecho, acaba de recibir una notable inyección de capital para una actualización crítica: la que le permitirá trabajar con entrenamiento e inferencia de modelos de IA.

129 millones para MareNostrum 5. Como explican en el BSC (Barcelona Supercomputing Center), la European High Performance Computing Joint Undertaking (EuroHPC JU) ha firmado el contrato de adquisición de nuevos elementos hardware para MareNostrum 5. Lo hace con la colaboración de Fsas Technologies (Fujitsu) y Telefónica. El presupuesto roza los 129 millones de euros y estará cofinanciado al 50% por el EuroHPC y al otro 50% por España, Portugal y Turquía.  La actualización se instalará durante el primer semestre de 2026. El proyecto, definido en la documentación de la Comisión Europea, se inició en julio de 2025.

MareNostrum 5 se adapta. Esta actualización no será un "mas de lo mismo", sino que está centrada totalmente en cargas de trabajo de inteligencia artificial y aprendizaje automático. El proyecto también tiene otro objetivo: reforzar la soberanía digital europea, lo que permitirá reducir dependencias tecnológicas y prevenir transferencias de tecnología no deseadas fuera de la UE.

Antes mandaba HPC, ahora mandará también la IA. La arquitectura ampliada de MareNostrum 5 hará uso de particiones de cómputo especializadas. Así, habrá al menos una para entrenamiento de LLMs y otra para inferencia. A día de hoy este supercomputador cuenta con cinco particiones distintas y según la lista TOP500 cuenta con una potencia Rmax de 175,30 PFLOPS (FP64, Linkpack) o de 215,40 PFLOPS según EuroHPC. Su capacidad total de potencia es de 20 MW.

30 Exaflops FP4 para la IA. En el documento técnico el objetivo es conseguir 30 exaflops FP4, que parece un salto enorme, pero hay que aclarar que los actuales 0,17 exaflops FP64 están dedicados a Computación de Alto Rendimiento (HPC) clásica. Estos exaflops FP4 están dedicados a entrenamiento e inferencia masiva, y no se pueden comparar fácilmente con esos exaflops FP64.

Captura De Pantalla 2026 02 10 A Las 14 31 54 Captura De Pantalla 2026 02 10 A Las 14 31 54 La descripción técnica de la partición GH72, aun sin mencionar explícitamente a NVIDIA, se ajusta de forma clara a su DGX GB200 NVL72.

NVIDIA en las quinielas. Aunque la documentación técnica no especifica qué tipo de hardware se utilizará, sí habla de una partición GH72 cuyas especificaciones son muy similares al supercomputador DGX GB200 NVL72. No se especifica cuántas GPUs, qué tipo de GPUs o cuánta memoria tendrán, pero sí hay requisitos mínimos, como por ejemplo el de "180 GB de memoria HBM3e o superior". Eso descarta a las H100 y H200, pero sí entrarían modelos como la B200/GB200 (MareNostrum 5 usa esas actualmente) o la B300/GB300, además de otras como las AMD Instinct MI350/MI355X, que según datos del mercado podrían llegar con 256 GB de memoria HBM3e.

Y pronto, chip propio. El BSC anunciaba ayer de forma paralela una buena noticia sobre sus esfuerzos para desarrollar un chip propio. El llamado Cinco Ranch TC1 desarrollado por el Barcelona Zettascale Lab ha sido validado y su puesta en marcha experimental ha sido un éxito. Estamos ante un chip basado en arquitectura RISC-V y que usa la tecnología de fabricación Intel 3 de 3 nm. Es un chip relativamente modesto que puede llegar a funcionar a 1,25 GHz, pero sigue siendo un primer paso destacable para que el BSC también siga avanzando en su papel de diseño de semiconductores.

Supercomputadoras europeas. Este proyecto forma parte del programa de EuroHPC para lograr que la supercomputación europea siga avanzando. En la actualidad cuenta con 12 supercomputadoras distribuidas en toda Europa, entre las que destacan especialmente Jupiter (Alemania, 4ª del mundo en la lista TOP500) y la futura Alice Recoque (Francia), que se consolidarán como los dos primeros sistemas exaescala del viejo continente.

En Xataka | La UE quiere acortar distancias en la carrera por la IA con 750 millones de euros. Y son buenas noticias para Barcelona



via Robótica e IA - Xataka https://ift.tt/xD1iGTM

EEUU gastó 600.000 millones de dólares en construir su red de autovías. Es menos de lo que las big tech van a gastar en IA este año

EEUU gastó 600.000 millones de dólares en construir su red de autovías. Es menos de lo que las big tech van a gastar en IA este año

La irrupción de ChatGPT en el panorama tecnológico en 2022 marcó el pistoletazo de salida en la carrera de la IA; una carrera en la que, año tras año, las grandes tecnológicas siguen aumentando su gasto sin parar. Acaba de empezar 2026 y, lejos de soltarlo, las big tech han hundido el pie aún más en el acelerador. Todas menos una.

Camina o revienta. Ya conocemos el capex previsto para 2026 de las principales empresas tecnológicas, es decir, lo que planean invertir en gastos de capital. 

  • Amazon: 200.000 millones
  • Alphabet: 175-185.000 millones
  • Meta: 115-135.000 millones
  • Microsoft: 140.000 millones
  • Apple: 13.000 millones

Si lo sumamos tomando las cifras más altas que han dado son 673.000 millones de dólares, si tomamos las cifras más bajas serían 643.000 millones. En cualquier caso es una barbaridad. En 2025 las cifras ya eran mareantes y estamos hablando de un aumento de en torno al 60%. Ha llegado un punto en el que tenemos que pararnos y preguntarnos ¿Cuántos ceros lleva eso? (sí doce).

Contexto de esta locura. Ahí van unas cuantas comparaciones para poner esta cifra en contexto. Es superior al PIB de Suecia en 2025 (662.000 millones), el de Israel (610.000 millones) y el de Singapur (574.ooo millones). Como señala este usuario en X, supera lo que costó construir todo el sistema de autopistas interestatales de Estados Unidos (unos 634.ooo millones) y es una cuarta parte de todo el gasto militar global en un año entero. Es como gastar 1,2 millones de dólares por minuto durante un año entero.  No tiene ningún sentido.

La respuesta del mercado. El miedo a una burbuja se hizo notar tras los anuncios de las distintas empresas, provocando fuertes caídas en bolsa a pesar de que todas ellas han logrado beneficios (algunas batiendo récords). 

  • Amazon cayó un 12% tras anunciar un capex de 200.000 millones, muy superior a las previsiones
  • Alphabet (Google) logró ingresos récord, pero no fue suficiente para convencer a los mercados y sus acciones cayeron un 10% en los días posteriores
  • Meta también anunció ingresos récord y tuvieron una subida del 10%. Sin embargo, días después la cosa cambio y cayeron un 8%.
  • Microsoft encajó el golpe más fuerte, con una caída del 18%. Además, revelaron que el 45% de sus contratos de su negocio de la nube son para OpenAI y el mercado no premia la dependencia.
  • Apple fue la ganadora, con un aumento de más del 7% desde que anunciaron resultados.

 Las caídas se han corregido en los últimos días y todas las empresas han visto como su valor se estabilizaba, pero el mensaje fue claro: los inversores temen que este nivel de capex vaya muy por delante de la capacidad de la IA para generar beneficios a corto plazo.

¿De dónde van a sacar el dinero? Es la gran pregunta. Tal y como recogen en Financial Times, las empresas deben elegir entre reducir la rentabilidad para los accionistas, usar sus reservas de efectivo o pedir más dinero prestado. En el caso de Amazon, las estimaciones apuntan a un flujo de efectivo de 180.000 millones, Alphabet 195.000 millones y Meta 130.000 millones. La amenaza de que el flujo de caja libre caiga a terreno negativo está ahí, por lo que podemos esperar que emitan más deuda y frenen la recompra de acciones.

Think different. Luego tenemos a Apple, que anunció unos ingresos de 144.000 millones  en el último trimestre, potenciados por las ventas de los iPhone 17 durante la campaña de Navidad. Su capex es una fracción de lo que han gastado otras empresas porque Apple no construye centros de datos, sino que los subcontrata. El acuerdo con Google para usar Gemini puede interpretarse como que han perdido la carrera de la IA, pero en el contexto de una posible burbuja es una jugada maestra: Google es quien asume el gasto brutal en infraestructura y quien se expone a la burbuja, mientras ellos se benefician de su tecnología y ven como el mercado les recompensa por gastar menos.

En Xataka | ¿Qué han acordado Apple y Google para la nueva Siri? Nadie lo sabe porque Google no quiere ni mencionarlo

Imagen | Foto de Adam Nir en Unsplash, editada



via Robótica e IA - Xataka https://ift.tt/eB3aXT4