jueves, 12 de febrero de 2026

Neuro-sama es la IA que ha destronado a todos los streamers humanos en Twitch porque no necesita comer ni dormir

Neuro-sama es la IA que ha destronado a todos los streamers humanos en Twitch porque no necesita comer ni dormir

2026 ya tiene su primer hito en la historia del streaming: por primera vez, el canal con mayor número de suscriptores activos en Twitch no pertenece a un creador humano. Neuro-sama, un VTuber generado íntegramente por inteligencia artificial, alcanzó los 162.459 suscriptores activos a principios de año, destronando a todos los streamers de carne y hueso en la plataforma. Esta cifra sitúa al canal vedal987, desde donde emite Neuro-sama, en una posición sin precedentes: una entidad artificial que supera en audiencia de pago a rivales consolidados.

Más humanos que los humanos. El origen de Neuro-sama se remonta a 2019, cuando el desarrollador británico conocido como Vedal diseñó un sistema de inteligencia artificial orientado inicialmente a ejecutar partidas del videojuego de ritmo 'osu!'. Tres años después, en diciembre de 2022, el proyecto evolucionó hacia su formato actual: un VTuber que combina múltiples capas tecnológicas para simular la presencia las actividades de un streamer humano. Según cuenta su creador, la infraestructura visual de Neuro-sama está desarrollada en C# mediante el motor Unity, mientras que los sistemas de inteligencia artificial funcionan en Python.

Se expresa. La arquitectura de Neuro-sama descansa sobre un LLM (Large Language Model), tecnología que procesa miles de millones de parámetros para generar conversaciones coherentes en tiempo real. Estos modelos constituyen la base de chatbots como ChatGPT, Google Gemini o Microsoft Copilot, y operan prediciendo secuencias de palabras según patrones aprendidos durante su entrenamiento. A este núcleo conversacional se añaden sistemas de síntesis de voz que generan la característica tonalidad aguda, y un avatar animado mediante tecnología Live2D que reacciona visualmente a las interacciones. El resultado es una entidad digital capaz de mantener diálogos, jugar a videojuegos y responder al chat sin intervención humana directa durante las emisiones.

Récords de audiencias. La trayectoria ascendente de Neuro-sama en términos de audiencia es completamente inusual. En enero de 2025, durante su segundo "subathon" anual (un formato de emisión continua cuya duración depende de las suscripciones recibidas), el canal estableció un récord mundial al alcanzar el nivel 111 en el sistema Hype Train de Twitch, indicador que mide la intensidad de suscripciones y donaciones en períodos concentrados de tiempo. Ese hito, que superaba los 106 niveles del anterior récord, parecía difícil de igualar.

Sin embargo, apenas once meses después, en diciembre de 2025, Neuro-sama pulverizó su propia marca. El canal completó un Hype Train de nivel 120, acumulando 118.989 suscripciones y 1.000.073 bits en un lapso temporal limitado. Esta cifra convierte a vedal987 en el único canal que ha conseguido batir dos veces consecutivas el récord global de Hype Train, una distinción que le valió un emote global de Twitch utilizable por cualquier usuario de la plataforma.

Las pelas. Las implicaciones económicas son notables. Según datos de TwitchTracker, con 162.459 suscriptores activos y aplicando la división estándar de ingresos de Twitch (que varía según acuerdos individuales, pero suele estar en torno al 50% para el creador), el canal generaría aproximadamente 400.000 dólares mensuales exclusivamente con suscripciones, sin contar donaciones directas, bits adicionales o acuerdos publicitarios. Actualmente, vedal987 ocupa el puesto 3 en el ranking histórico de canales con más suscripciones de Twitch.

Tiene hermana. En marzo de 2023 nació Evil Neuro, presentada como la "hermana gemela" del personaje original. Vedal concibió esta segunda entidad para que Neuro-sama pudiera interactuar consigo misma, pero el proyecto derivó en una personalidad diferenciada con voz, modelo visual y comportamiento propios. Ambas IAs han trascendido el formato de streaming: en diciembre de 2022, Neuro-sama estrenó 'LIFE', su primera canción original. En agosto de 2024 ambas lanzaron 'NEVER', el primer dueto entre las dos entidades.

Los problemas. El fenómeno tiene antecedentes problemáticos: Nothing, Forever, una serie inspirada en Seinfeld y generada completamente por algoritmos fue suspendida de Twitch tras emitir comentarios transfóbicos. El Rubius experimentó dilemas similares con DegenerIA, un canal donde ChatGPT controlaba todas las conversaciones. De hecho, uno de los personajes de DegenerIA realizó comentarios despectivos sobre la streamer Pokimane, evidenciando que los sistemas de moderación automática no siempre filtran contenido inapropiado. La propia Neuro-sama se enfrentó a un baneo temporal en 2023 por declaraciones polémicas, un recordatorio de que la autonomía conversacional de estos sistemas conlleva riesgos.

El auge de los VTubers con IA. Los VTubers convencionales, hasta ahora, eran humanos que controlaban avatares virtuales en tiempo real mediante sistemas de captura de movimiento facial y corporal. Hololive, la agencia japonesa que domina este sector, gestiona figuras como Gawr Gura, cuyo canal de Youtube supera los cuatro millones de suscriptores. Estos creadores eligen representarse mediante personajes animados por razones que van desde la protección de la privacidad hasta la construcción de identidades digitales. Neuro-sama supone un salto cualitativo: aquí no hay un humano detrás del avatar.

La industria de los VTubers ha experimentado un crecimiento sostenido que YouTube cuantificó así: entre 2022 y 2024, el contenido relacionado con VTubers generó una media de 50.000 millones de visualizaciones anuales en la plataforma. El mercado de herramientas para producir este tipo de contenido, además, se ha democratizado: plataformas como Akool, HeyGen y VTube Studio permiten a creadores sin conocimientos técnicos avanzados generar avatares interactivos con una inversión muy pequeña.

Las dudas de cara al futuro. Lo que está claro es que este auge de VTubers impulsados por tecnología está llena de desequilibrios. La emisión continua sin necesidad de descanso otorga a estas entidades una ventaja estructural sobre streamers humanos que necesitan dormir, comer o simplemente desconectar. La pregunta sobre si esto constituye competencia desleal o simplemente evolución tecnológica sigue sin respuesta clara.

En Xataka | Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella



via Robótica e IA - Xataka https://ift.tt/nYDfGpZ

Mistral es la IA que mejor está jugando sus cartas. Porque está aprovechando la fiebre por la soberanía tecnológica europea

Mistral es la IA que mejor está jugando sus cartas. Porque está aprovechando la fiebre por la soberanía tecnológica europea

A la chita callando, Mistral crece como la espuma. La startup francesa de inteligencia artificial afirma que sus ingresos se han multiplicado por 20 durante el pasado año, y lo han logrado con una estrategia especialmente llamativa y efectiva: defendiendo e impulsando la soberanía tecnológica europea.

Qué ha pasado. Arthur Mensch, cofundador y CEO de Mistral, explica en Financial Times que su última tasa de ingresos anualizados —que estima ingresos anuales basándose en los del último mes— estaba por encima de los 400 millones de dólares. Hace un año esa tasa era de tan solo 20 millones al año. O lo que es lo mismo: la ha multiplicado por 20.

Esto marcha. La startup con sede en París no ha parado de crecer desde sus inicios y el año pasado ya estaba valorada en 12.000 millones de euros. Puede que ese dato pronto quede obsolto, porque la empresa está en camino de superar los 1.000 millones de dólares en ingresos anuales recurrentes a finales de año si sigue con este crecimiento. Entre sus alianzas más llamativas está la que firmó con ASML en septiembre de 2025: fue entonces cuando la empresa holandesa invirtió 1.300 millones de euros en ella. No está haciendo demasiado ruido, pero no para de crecer con un componente clave.

Empresas al poder. Mistral está ampliando rápidamente el número de grandes clientes empresariales con los que trabaja. Ahora mismo cuenta con más de 100, y aunque no es especialmente popular entre usuarios finales —que suelen elegir modelos de las Big Tech de EEUU—, la opción para esas empresas europeas es cada vez más clara. Si quieren no depender de infraestructura y control fuera de fuera de Europa, ahora tienen a Mistral como gran alternativa.

Nuevos centros de datos. La firma anunció este miércoles que invertirá 1.200 millones de euros en un nuevo centro de datos en Suecia. Es el primer centro de este tipo que la empresa construirá fuera de Francia, y Mensch explicaba que "Estamos diversificando y distribuyendo nuestra capacidad a lo largo de Europa". Ese centro de datos se creará en colaboración con EcoDataCenter, y se espera que esté operativo en 2027. La elección de Suecia fue sencilla según Mensch, que apuntó que era muy atractiva porque la energía allí era "baja en emisiones de carbono y relativamente barata".

Socios y clientes muy dentro pero también fuera de la UE. Aunque Mistral se postula como el gran referente en cuanto a esa "IA europea", también cuenta con Microsoft y NVIDIA como inversores. De hecho su ambición es global, pero el hecho de ser el único gran desarrollador europeo de LLMs fundacionales lo ha puesto en el punto de mira de todas las empresas europeas que buscan esa independencia de socios de EEUU o China. ASML, Total Energies, HSBC y gobiernos como el de Francia, Alemania o Grecia ya usan los servicios de Mistral, y el 60% de sus ingresos provienen de Europa.

Un discurso perfecto para estos tiempos. El CEO de Mistral tiene clara la estrategia y ha llegado en el momento justo para aplicar esa estrategia que defiende esa soberanía europea: 

"Europa se ha dado cuenta de que su dependencia de los servicios digitales estadounidenses era excesiva y se encuentra hoy en un punto crítico. Les aportamos una ventaja [a las empresas europeas] porque les proporcionamos modelos, software y capacidad de cálculo totalmente independientes de los actores estadounidenses". 

Los centros de datos deben ser de empresas europeas. Mensch también habló de todos esos centros de datos que las Big Tech crearán en Europa y, desde luego, en España: "Es importante que nos demos cuenta de que no es tan útil (para los Estados) desplegar recursos de computación si solo creas centros de datos para los hiperescaladores de EEUU". O lo que es lo mismo: tener centros de datos de IA de empresas como Microsoft, Google o Amazon en Europa sirve mucho más a los intereses de esas empresas que a los intereses europeos.

En Xataka | Europa ha empezado a independizarse tecnológica y militarmente de EEUU. Primera parada: sustituir a Starlink




via Robótica e IA - Xataka https://ift.tt/pOFk2gG

Xiaomi ya tiene su propio modelo de IA para robots. De momento, es buenísimo desmontando LEGOs y doblando toallas

Xiaomi ya tiene su propio modelo de IA para robots. De momento, es buenísimo desmontando LEGOs y doblando toallas

Hace mucho, muchísimo tiempo que Xiaomi dejó de ser una empresa de móviles. Hoy los tentáculos de la compañía alcanzan todo tipo de sectores, desde móviles y electrodomésticos hasta coches, diseño de chips y, desde ahora, robótica. Y es que la compañía china acaba de presentar su primer modelo de visión, lenguaje y acción para robótica. Su nombre: Xiaomi-Robotics-0.

De qué va esto. Xiaomi-Robotics-0 es un modelo open-source cuyo código puede encontrarse en GitHub y HugginFace. Tal y como explican desde la empresa, este modelo ha sido optimizado para ofrecer "alto rendimiento, velocidad y suavidad en ejecuciones en tiempo real". No hay que pensar en este modelo como una IA capaz de que un robot corra y salte cual humano, sino en uno capaz de hacer que un robot "sencillo" entienda su alrededor y sepa tomar la decisión óptima sin, por ejemplo, destrozar lo que tenga entre las manos.

Lo de los robots. Cuando hablamos de IA aplicada a la robótica no hablamos solo de que un robot sea capaz de moverse. El dispositivo ha de saber y entender que no debe aplicar la misma fuerza al sujetar un ladrillo que a un gato, por ejemplo. En ese sentido, tiene que haber un entendimiento de lo visual, una comprensión de lo que se está viendo y una ejecución de acciones acorde: esto es un ladrillo > es un objeto pesado > he de aplicar más fuerza para sujetarlo y moverlo de un lado a otro.

Resultados de Xiaomi-Robotics-0 en los benchmarks | Imagen: Xiaomi Resultados de Xiaomi-Robotics-0 en los benchmarks | Imagen: Xiaomi Resultados de Xiaomi-Robotics-0 en los benchmarks | Imagen: Xiaomi

Los benchmarks. Xiaomi ha conseguido, según detallan en la web del proyecto, buenísimos resultados en los benchmarks LIBERO (mide la transferencia de conocimiento), SimplerEnv (mide el rendimiento en simulaciones reales) y CALVIN (mide el rendimiento en tareas condicionadas por el lenguaje). De acuerdo a la empresa, Xiaomi-Robotics-0 "consigue unas tasas altas de éxito y robustos resultados en dos desafiantes tareas bimanuales: desmontar LEGOs y doblar toallas".

Lo divertido del entrenamiento. Todo modelo de IA bebe de un dataset de entrenamiento. En el caso de Xiaomi-Robotics-0, un modelo de 4.700 millones de parámetros, el dataset consiste en 200 millones de pasos de tiempo de trayectorias de robots y más de 80 millones de muestras de datos generales de visión-lenguaje, incluyendo 338 horas de vídeo de desmontaje de LEGOs y 400 horas de vídeos de doblaje de toallas.

Los resultados. La compañía asegura en el paper que su modelo es capaz de desmontar LEGOs complejos de hasta 20 piezas, adaptar la sujeción en tiempo real para evitar fallos, usar una sola mano para poner bien la toalla y poder doblarla o, si recoge dos toallas del cesto, coger una de ellas, dejarla en su sitio y doblar solo una. Esto demuestra una capacidad interesante de adaptación y aprendizaje que, aunque puede parecer nimia sobre el papel, tiene su jugo si pensamos en robots industriales e incluso domésticos. 

Más allá. Lo que este modelo está demostrando es ser capaz de adaptarse a geometrías complejas e impredecibles, como la de una toalla tirada en un cesto, y a entender la, digamos, "física de lo blando". En una toalla puede parecer poca cosa, pero pensemos en manipular tejidos humanos en una intervención, por ejemplo. Lo mismo con los LEGO. No es solo desmontarlos, es entender la posición de los bloques, cómo encajan, qué fuerza aplicar y en qué ángulo para no romperlos. Pensemos en un robot que quita escombros.

Un robot industrial se ha programado históricamente con coordenadas fijas, es decir, mover algo del punto A al punto B. Un robot con una IA como la que propone Xiaomi sería mucho más versátil. El primer robot aprende movimientos, el segundo robot aprende tareas, y la diferencia es un mundo. Si pensamos en un futuro lejano en el que haya robots domésticos, no será lo mismo que un robot limpie el polvo de una estantería a que sepa identificar objetos, decoración, etc., y entienda que debe moverlos para evitar tirarlos y limpiar a fondo. 

Imagen de portada | Xiaomi

En Xataka | Una empresa china presume de otro límite en robótica: asegura que su nuevo robot humanoide corre como un atleta de élite




via Robótica e IA - Xataka https://ift.tt/8hN3bKA

Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella

Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella

La promesa más prometedora que rodea hoy a la IA en el trabajo no es que vaya a sustituirnos, sino que podría liberarnos de parte de la carga que arrastramos cada día. Durante los últimos años, buena parte del discurso tecnológico ha insistido en esa idea, impulsada también por la llegada a las empresas de asistentes como ChatGPT, Gemini o los distintos copilotos integrados en el software cotidiano: menos tareas rutinarias, más tiempo para pensar, crear o decidir con calma. Sin embargo, a medida que estas herramientas empiezan a utilizarse de verdad en entornos reales, surge una duda que ya no se puede ignorar: qué ocurre cuando esa promesa de alivio se enfrenta a la práctica cotidiana del trabajo.

Sistema de agotamiento. La narrativa del alivio empieza a resquebrajarse cuando la investigación académica mira lo que ocurre dentro de las empresas. Un estudio difundido por Harvard Business Review describe que, en el caso observado, la IA no disminuyó el trabajo, sino que tendió a intensificarlo, incluso sin órdenes explícitas para producir más. Estos hallazgos pueden ser interpretados como la señal de un problema emergente, donde el aumento de capacidad puede empujar a ciertas organizaciones hacia dinámicas cercanas al agotamiento estructural, más vinculadas a la aceleración constante que a la eficiencia prometida.

De dónde vienen los datos. El trabajo citado se desarrolló durante ocho meses dentro de una empresa tecnológica estadounidense de unos 200 empleados, combinando observación presencial dos días por semana, seguimiento de canales internos de comunicación y más de 40 entrevistas en profundidad con perfiles de ingeniería, producto, diseño, investigación y operaciones. La compañía no obligó a utilizar IA ni fijó nuevos objetivos de rendimiento, aunque sí ofrecía suscripciones empresariales a herramientas comerciales, lo que permitió analizar qué ocurría cuando la adopción surgía por iniciativa propia de los trabajadores.

El patrón detrás de la promesa. Lejos de un cambio repentino, la intensificación descrita por los investigadores adopta la forma de un proceso reconocible. La revista resume sus hallazgos en tres mecanismos que, combinados, transforman la experiencia diaria del trabajo: ampliación progresiva de responsabilidades, fronteras cada vez menos claras entre actividad y descanso, y gestión simultánea de múltiples tareas apoyadas por IA.

La mayor actividad comenzó, en muchos casos, por algo que a primera vista parecía positivo: la sensación de poder hacer más por cuenta propia. No era ningún secreto que la IA permite abordar tareas que antes requerían apoyo externo o conocimientos específicos, ampliando de forma gradual el perímetro de su rol. Sin embargo, ese crecimiento no sustituyó responsabilidades previas, sino que se sumó a ellas y desencadenó nuevas demandas de supervisión y ajuste dentro de los equipos.

Cuando la pausa deja de ser pausa. El estudio también muestra que esta dinámica no solo surge de hacer más cosas, sino de hacerlas en momentos distintos. Al reducir el esfuerzo inicial necesario para empezar una tarea, la IA facilitó que el trabajo se deslizara hacia espacios tradicionalmente reservados al descanso, como las comidas, los intervalos breves o el final del día. Con el tiempo, esa continuidad apenas perceptible transformó la experiencia laboral en algo más constante y menos delimitado, disminuyendo la capacidad de recuperación incluso sin aumentar formalmente el horario.

Fragmentación de la atención. Harvard Business Review señala que la posibilidad de ejecutar varias acciones a la vez, apoyándose en sistemas que trabajan en segundo plano, empujó a muchos profesionales a sostener un número creciente de tareas abiertas de forma simultánea. Esa multiplicación de frentes generaba una sensación de impulso y acompañamiento, pero también exigía revisar con frecuencia los resultados producidos por la IA y cambiar de contexto de manera continua. A medida que este comportamiento se volvía habitual, las expectativas de velocidad tendían a elevarse dentro de la organización.

Una salida posible. El estudio sugiere que el problema no reside en la tecnología en sí, sino en la ausencia de marcos que regulen su uso cotidiano. Por ello, propone desarrollar una “práctica de la IA” basada en pausas intencionales que permitan reconsiderar decisiones, una secuenciación del trabajo que reduzca la fragmentación y momentos de conexión humana que contrarresten el aislamiento. En este escenario, el desafío para las empresas deja de ser adoptar más IA y pasa a ser integrar su capacidad sin erosionar el equilibrio del trabajo diario.

Imágenes | Vitaly Gariev

En Xataka | Google va a pedir dinero prestado a devolver dentro de 100 años. Tienes que creerte que dentro de 100 años Google seguirá ahí



via Robótica e IA - Xataka https://ift.tt/1h72Uuz

miércoles, 11 de febrero de 2026

Databricks vale 134.000 millones sin haber salido nunca a bolsa gracias a la IA. Y no es una empresa de IA

Databricks vale 134.000 millones sin haber salido nunca a bolsa gracias a la IA. Y no es una empresa de IA

Databricks ha cerrado una ronda de financiación de más de 7.000 millones de dólares (5.000 millones en capital y 2.000 millones en deuda) que valora la empresa en 134.000 millones de dólares. Es una cifra mareante para una empresa de la que la gran mayoría de la gente no ha oído hablar nunca.

La firma de San Francisco tampoco es, técnicamente, una empresa de IA. Su negocio es la gestión y análisis de datos a escala empresarial. Lo que hace Databricks es proporcionar la infraestructura invisible que permite a otras empresas almacenar, procesar y extraer valor de enormes cantidades de información.

Sin eso, entrenar modelos de IA sería imposible.

Por qué es importante. Databricks es el tapado del boom de la IA. OpenAI, NVIDIA o Google acaparan los titulares, pero son empresas como esta las que construyen la fontanería que hace posible todo lo demás.

Su valoración es de 134.000 millones. Sin haber salido nunca a bolsa. Eso la sitúa incluso por encima de gigantes tecnológicos consolidados. Está al nivel de Qualcomm o Sony. Supera a Xiaomi o Adobe. Y lo hace con un modelo de negocio menos sexy pero más rentable: infraestructura B2B de la que deja unos márgenes brutos superiores al 80%.

En cifras. Los números de Databricks explican un crecimiento que justifica el entusiasmo de sus inversores.

  • Ingresos anualizados superiores a 5.400 millones de dólares en el cuarto trimestre, con un 65% de crecimiento interanual.
  • Más de 800 clientes que generan más de un millón de dólares anuales.
  • Flujo de caja libre positivo durante el último año.
  • Su línea de productos de IA ha superado los 1.400 millones en ingresos con una tasa de retención neta superior al 140%.

Entre líneas. La participación de JPMorgan Chase, Goldman Sachs, Morgan Stanley, Microsoft y fondos soberanos como el de Catar en la última ronda dice mucho: estos grandes inversores están apostando por la infraestructura, no por la aplicación final.

El mensaje implícito es algo que llevamos escuchando desde los primeros meses tras el momento ChatGPT: en la carrera de la IA, quienes venden picos y palas pueden ganar más que quienes buscan oro. Databricks proporciona la plataforma donde las empresas almacenan sus datos propietarios y entrenan sus modelos personalizados, cosa que las APIs públicas de OpenAI o Anthropic no pueden ofrecer.

Sí, pero. Su CEO, Ali Ghodsi, ha dicho que "ahora no es un buen momento para salir a bolsa", a pesar de que su empresa cumple todos los requisitos financieros para hacerlo. La estrategia pasa por acumular suficiente cash como para aguantar cualquier corrección del mercado como la de 2022.

Y visto el vértigo que produce cualquier titular sobre cifras de capex, tiene sentido hacer colchón por lo que pueda pasar.

El contexto. Databricks supone un cambio importante en cómo se estructura el sector tecnológico.

  1. Durante años, las empresas SaaS tradicionales dominaron el panorama B2B.
  2. Ahora, las plataformas de datos e infraestructura de IA están consiguiendo valoraciones similares o superiores.

La empresa también está expandiéndose más allá de su negocio tradicional con productos como Lakebase, una base de datos diseñada específicamente para agentes de IA. O con Genie, un asistente conversacional que permite a los empleados consultar datos empresariales mediante lenguaje natural.

  • Si Databricks consigue una buena salida a bolsa en un entorno donde las valoraciones tecnológicas están más fiscalizadas que nunca, demostraría que los mercados están dispuestos a pagar primas muy grandes por infraestructura de IA, no solo por modelos llamativos.
  • Y eso cambiaría las reglas del juego para decenas de empresas similares que operan en la sombra.

En Xataka | España, a las puertas de sumar otro unicornio de IA: Multiverse negocia una ronda para superar los 1.500 millones de euros

Imagen destacada | Databricks y Xataka con Mockuuups Studio



via Robótica e IA - Xataka https://ift.tt/nWT41sl

ByteDance no se conforma con TikTok y acaba de iniciar una nueva carrera: una que le lleve a crear un chip de IA propio

ByteDance no se conforma con TikTok y acaba de iniciar una nueva carrera: una que le lleve a crear un chip de IA propio

ByteDance está desarrollando un chip propio de inteligencia artificial y para fabricarlo está ya negociando con Samsung Electronics. Es al menos lo que señalan dos fuentes cercanas al proyecto, que convertiría a la empresa china en un competidor aún más feroz en el segmento que quiere revolucionar nuestro mundo.

TikTok ya no importa (tanto). TikTok ha convertido a ByteDance en un imperio dentro del segmento de las redes sociales, pero la empresa china no se ha quedado ahí. De hecho, se ha volcado totalmente en el mundo de la IA generativa y ya tiene modelos realmente excepcionales como Doubao (competidor de GPT-5 o Gemini) o Seedream. Lo único que le faltaba es un chip propio de IA, pero atentos, porque eso puede tener solución a corto plazo.

Qué ha pasado. Fuentes cercanas a los planes de la compañía han indicado que ByteDance está trabajando en el diseño y desarrollo de un nuevo chip propio de IA al que han bautizado como Seedchip, en la línea de sus modelos Seedream de IA generativa de imagen y vídeo. Dicho chip podría ser fabricado por Samsung Electronics, con la que la empresa china está manteniendo conversaciones. Un portavoz de ByteDance asegura que esos planes sobre un chip propio son imprecisos, pero no detalla por qué.

Van a toda pastilla. El proyecto parece estar avanzando a gran velocidad y ByteDance tiene como objetivo recibir las primeras muestras de ese chip a finales de marzo. La compañía pretende fabricar al menos 100.000 unidades del chip que además estarían especialmente centrados en la inferencia de sus modelos de IA y no al entrenamiento. Una de las fuentes consultadas indica que en ByteDance esperan aumentar luego la producción a 350.000 unidades, pero no es especifica la franja temporal para ese objetivo. 

La inferencia es cada vez más importante. Centrarse en chips para inferencia tiene mucho sentido a nivel económico. El entrenamiento de modelos como Doubao requiere la fuerza bruta de los chips de NVIDIA y esa parte está bien cubierta. Sin embargo, hacer que su IA funcione para millones de usuarios simultáneos es un apartado en el que ByteDance puede ahorrar miles de millones si tiene un chip propio optimizado para su código.

Por qué asociarse con Samsung. Teniendo en cuenta que China intenta evitar dependencias de empresas extranjeras, llama la atención esa alianza con Samsung. Sin embargo, puede haber un razón poderosa para haber tomado esa decisión: las negociaciones con Samsung incluyen aparentemente el acceso al suministro de chips de memoria que en la actualidad están prácticamente agotados. Y sobre todo, a unos chips muy especiales: los HBM.

Una alianza delicada. La alternativa clara a esa asociación con Samsung sería fabricar por ejemplo con SMIC o incluso optar por Huawei, que se está convirtiendo en la "NVIDIA china" y cuenta ya con chips de IA realmente destacables. Elegir a Samsung parece mandar un mensaje comprometedor: que la tecnología de fabricación china sigue por detrás de la de fabricantes como Samsung.

ByteDance ya lo intentó. En junio de 2024 ya aparecieron datos que sugerían que ByteDance se había aliado con Broadcom para desarrollar un chip avanzado de IA. En aquel momento el socio elegido para fabricar dichos chips era TSMC, pero parece que dicho proyecto ha acabado difuminándose.

Todos quieren tener chip propio. La ambición de ByteDance sigue la tendencia general del mercado: casi todas las grandes tecnológicas han decidido crear sus propios chips avanzados de IA. Google tiene sus TPU, Microsoft sus Maia, y Amazon sus Trainium para reducir su dependencia de NVIDIA. Y por supuesto las principales rivales chinas de ByteDance, Alibaba (con su Zhenwu) y Baidu —que tiene su división Kunlunxin trabajando en ello—, tienen sus propios diseños. 

Pero siguen apostando por NVIDIA. Este esfuerzo pretende transformar sus negocios de vídeo corto y servicios de infraestructura en la nube, pero aun confirmándose y teniendo éxito tardarán en convertirlo en una verdadera referencia. ByteDance planea invertir 22.000 millones de dólares en el ámbito de la IA, y la mayoría de ese presupuesto está destinado a comprar chips de NVIDA que incluyen los H200. 

Imagen | Xataka con FreePik



via Robótica e IA - Xataka https://ift.tt/uLDV9P1

"El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía

"El mundo está en peligro": el responsable de seguridad de Anthropic abandona la empresa para dedicarse a escribir poesía

En un movimiento más propio del "pingüino nihilista" que del responsable de seguridad de uno de los principales protagonistas del desarrollo de la IA, Mrinank Sharma, jefe de seguridad de inteligencia artificial en Anthropic ha anunciado su renuncia con una carta pública en su perfil de X y consagrará su vida a escribir poesía.

En su comunicado, Sharma no solo explicó por qué deja la compañía que desarrolla los modelos de Claude, sino que describió el estado actual del desarrollo de la IA, con un lenguaje que mezcla alarma con reflexión personal. "El mundo está en peligro", aseguraba el ya exdirectivo de Anthropic.

El contexto: quién es y qué hacía en Anthropic. Mrinank Sharma dirigía el Safeguards Research Team de Anthropic, un grupo de investigación centrado en estudiar los riesgos asociados a sistemas de IA.

Dentro de Anthropic, el trabajo de Sharma incluía desarrollar defensas frente a riesgos como el bioterrorismo asistido por IA y estudiar fenómenos como la sicofancia (la tendencia de los modelos de IA a la adulación del usuario), así como investigar cómo la IA puede influir en la percepción humana y cambiar comportamientos culturales.

Se va, pero deja un mensaje. La carta, casi criptica, que Sharma publicó en X se hizo rápidamente viral por los mensajes que contenía. En ella, expresó sus preocupaciones con un tono que trasciende lo técnico. Una de las citas que más ha llamado la atención: "El mundo está en peligro. Y no solo por la IA, o las armas biológicas, sino por una serie de crisis interconectadas que se están desarrollando en este mismo momento".

Más allá de la literalidad casi apocalíptica, Sharma advirtió que la humanidad se estaba acercando a un punto crítico en el que el desarrollo de la IA se estaba enfrentando a dilemas éticos para quienes la desarrollan "nuestra sabiduría debe crecer al mismo ritmo que nuestra capacidad para afectar el mundo, de lo contrario enfrentaremos las consecuencias".

Trabajar para quedarte sin trabajo. Sharma no es el único que se plantea ese dilema ético. Según fuentes de The Telegraph, otros empleados de Anthropic han manifestado estar preocupados por el enorme salto evolutivo de los últimos modelos de IA. "Me siento como si viniera a trabajar todos los días para quedarme sin trabajo", reconocía uno de los empleados al medio británico.

En cierto modo es así, ya que estos empleados están trabajando en el desarrollo de una tecnología que, con toda probabilidad, cambie la naturaleza de su trabajo, y el de millones de personas, a pocos años vista.

¿Eso es bueno o es malo? Una primera lectura de la carta deja la sensación de que estos trabajadores están desarrollando el arma que destruirá a la humanidad. Sin embargo, una lectura entre líneas deja a Anthropic en una situación pionera frente a sus rivales de OpenAI, Microsoft o xAI: están logrando avanzar a un ritmo que abruma incluso a sus desarrolladores. Una sensación que no parece producirse en las plantillas de otras empresas. ¿Será que sus modelos no están en ese punto de evolución?

"A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es permitir que nuestros valores guíen nuestras acciones. Constantemente enfrentamos presiones para dejar de lado lo que más importa", escribía Sharma.

El giro poético. Además de las reflexiones sobre los riesgos globales que percibe, Sharma anunció que su próximo paso profesional será muy distinto al que tenía hasta ahora. En su carta mencionó su intención de dedicar tiempo a lo que él denominó "la práctica del discurso valiente" a través de la poesía. Este cambio de lA por la poesía ha sido interpretado como un signo de insatisfacción frente al ritmo y el enfoque imperantes en la industria tecnológica de la IA.

Al igual que Sharma, en las últimas semanas otras figuras clave en el desarrollo de las IA de Anthropic, han anunciado su dimisión. Harsh Mehta y Behnam Neyshabur también anunciaron hace unos días que abandonaban la compañía. Sin embargo, en estos casos, se hacía el anuncio de salida y, a renglón seguido, se anunciaba un nuevo proyecto de IA. Es decir, que lejos de los postulados éticos que se planteaba Sharma, su intención iba más en la línea de cavar en su propia mina de oro y no en la de otros.

En Xataka | Daniela Amodei, cofundadora de Anthropic: "estudiar humanidades será más importante que nunca"

Imagen | mrinank sharma, Anthropic



via Robótica e IA - Xataka https://ift.tt/10LlPCy