lunes, 9 de febrero de 2026

Daniela Amodei, cofundadora de Anthropic: "estudiar humanidades será más importante que nunca"

Daniela Amodei, cofundadora de Anthropic: "estudiar humanidades será más importante que nunca"

Cuando un estudiante se encuentra a las puertas de la PAU (Prueba de Acceso a la Universidad) y se plantea qué estudios iniciar si quiere dedicarse al desarrollo de la IA, es probable que opte por una ingeniería informática o alguna carrera STEM. En cierto modo sería la decisión correcta y prueba de ello son las altas tasas de inserción laboral que, año tras año, marcan las ingenierías técnicas.

Sin embargo, según Daniela Amodei, cofundadora y presidenta de Anthropic, las humanidades son la clave para el futuro laboral con la IA. Para programar ya está Claude.

Menos máquina, más humanas. En una reciente entrevista concedida a ABC News, Daniela Amodei, licenciada en Literatura por la Universidad de California en Santa Cruz y hermana del también cofundador de Anthropic, Dario Amodei, defiende que "estudiar humanidades va a ser más importante que nunca".

Su argumento se sostiene en el mismo discurso que desde hace algún tiempo sustentan otros directivos de la IA como Jensen Huang: "nuestro trabajo es crear tecnología informática para que nadie necesite programar", aseguraba Huang en una conferencia en 2024.

"Muchos de estos modelos son en realidad muy buenos en STEM, ¿verdad? Pero creo que esta idea de que hay cosas que nos hacen únicos como humanos, entendernos a nosotros mismos, entender la historia, entender qué nos motiva, eso siempre va a ser realmente importante". Es decir, lo que Amodei considera que va a ser realmente valioso en el futuro no son personas que sepan programar, sino que enseñen a los modelos de IA a pensar como un humano.

En Anthropic ya están en ese camino. La presidenta de Anthropic, aseguraba que a la hora de contratar a nuevos empleados, ya priorizan perfiles de "grandes comunicadores, que tengan un excelente coeficiente emocional y habilidades con las personas, que sean amables, compasivos y curiosos y quieran ayudar a los demás". Para la directiva, "las cosas que nos hacen humanos se volverán mucho más importantes en lugar de mucho menos importantes".

De hecho, Amodei no ve el futuro del trabajo como un escenario de humano contra IA, sino de humanos más IA. "La combinación de humanos e IA crea trabajos más significativos, más desafiantes, más interesantes y de alta productividad", subrayaba la presidenta de Anthropic, "Y creo que también abrirá la puerta a un mayor acceso y oportunidades para muchas personas", apostilló.

La cruda realidad laboral en España. La tasa de inserción laboral de la rama de humanidades en España pinta otro panorama muy diferente. Según datos de la Fundación BBVA y el Ivie, el 77,6% de jóvenes universitarios logra un empleo acorde a su titulación. Los estudiantes que cursan ingenierías informáticas y de software obtienen una tasa de empleabilidad media del 89,4%.

En cambio, según el informe 'La empleabilidad de los jóvenes en España 2025' de la Fundación Conocimiento y Desarrollo (CYD), la rama de Arte y Humanidades son las que menos salidas profesionales ofrecen con una tasa de afiliación media del 63,5%.

Un presente complicado. Amodei prevé un futuro muy distinto en el que la IA liberará lo técnico para potenciar lo humano. Pero lo cierto es que en la actualidad los graduados en Artes y Humanidades son los que peores salarios tienen.

Solo el 36,4% de los graduados en ramas de humanidades supera los 1.500 euros mensuales, frente a las ingenierías que cobran una media de 2.900 euros brutos anuales.

En Xataka | Encontrar trabajo siempre había sido una buena forma de escapar de la pobreza: en España está dejando de ser verdad

Imagen | Anthropic, Unsplash (Tai Bui)



via Robótica e IA - Xataka https://ift.tt/0yp7nfk

Las Big Tech encuentran formas cada vez más creativas de monetizar su IA. La jugada de Anthropic: cobrar el doble por más velocidad

Las Big Tech encuentran formas cada vez más creativas de monetizar su IA. La jugada de Anthropic: cobrar el doble por más velocidad

Anthropic acaba de lanzar Fast Mode para Claude Opus 4.6, una configuración que permite obtener respuestas del modelo hasta 2,5 veces más rápido. Eso sí, también afectará a nuestro bolsillo, ya que el precio también se multiplica. Si bien ahora mismo se trata de un experimento destinado a profesionales que necesitan velocidad en tareas críticas, también es una jugada que estamos empezando a ver cada vez más: monetizar las herramientas de IA con mejoras incrementales con lo que ya se tiene de base. Y claro, si esto reduce ese margen entre gasto e ingresos de sus operaciones, mejor que mejor.

Qué ha anunciado Anthropic. Fast Mode no es un modelo nuevo ni una versión recortada de Opus 4.6. Es la misma inteligencia, con la misma capacidad de razonamiento, pero configurada para priorizar la velocidad de respuesta sobre la eficiencia de costes. Según la compañía, ofrece respuestas 2,5 veces más rápidas manteniendo la misma precisión del modelo. De momento está disponible en fase de prueba para usuarios de Claude Code que tengan el uso adicional activado, y también en plataformas como Cursor, GitHub Copilot, Figma o v0.

El golpe al bolsillo. Mientras que el modo estándar de Opus 4.6 cobra 15 dólares por millón de tokens de entrada y 75 dólares por millón de tokens de salida, Fast Mode multiplica esas tarifas: 30 dólares la entrada y 150 dólares la salida para contextos de menos de 200.000 tokens. En contextos más largos, la salida sube hasta los 225 dólares por millón de tokens. Anthropic ofrece un descuento del 50% hasta el 16 de febrero, pero aun así estamos hablando de un incremento significativo. La factura se dispara especialmente si activas el modo rápido a mitad de conversación, ya que cobra el precio completo por todo el contexto previo.

Para quién tiene sentido. Anthropic cuenta que Fast Mode está pensado para trabajo interactivo donde la latencia importa más que el coste. Depuración en tiempo real, iteración rápida de código, correcciones urgentes antes de una fecha límite. Situaciones donde la espera rompe el flujo de trabajo. Según la documentación oficial, no tiene sentido para tareas autónomas largas, procesamiento por lotes o trabajos donde el presupuesto sea ajustado. Si Claude va a pasarse 30 minutos refactorizando código en segundo plano, pagar más por velocidad no aporta nada.

La señal que manda al mercado. Lo de Fast Mode no es solo una opción premium. Es Anthropic probando hasta dónde están dispuestos a llegar sus clientes profesionales para conseguir fluidez. Y de paso, enviando un mensaje: las mejoras en velocidad y experiencia de usuario van a costar cada vez más. La compañía necesita cerrar la brecha entre lo que gasta en computación y lo que ingresa, y lo está haciendo más rápido de lo que su base de clientes necesita tener más rapidez en computación. Fast Mode se factura directamente como uso adicional, saltándose por completo las cuotas incluidas en los planes de suscripción.

Entre líneas. El movimiento de Anthropic encaja en una tendencia más amplia. Los modelos de IA están alcanzando un nivel de capacidad donde las mejoras "revolucionarias" son cada vez más escasas. Lo que queda son ajustes incrementales: un poco más de rapidez, algo más de contexto, respuestas ligeramente más precisas. Pero esos ajustes requieren infraestructura masiva y cara. Así que las empresas del sector están probando nuevas formas de monetizar lo que ya tienen. En este caso, cobrar mucho más por hacer lo mismo, solo que más deprisa. Es rentabilizar el rendimiento como servicio premium.

La trampa de la velocidad. "La velocidad es adictiva", contaba Civil Learning en su artículo de Medium. Una vez experimentas un modelo que responde al instante sin perder capacidad de razonamiento, volver atrás resulta frustrante. Anthropic lo sabe. Fast Mode no solo vende rapidez, vende la posibilidad de mantener el estado de flujo durante sesiones de programación o debugging intensas. Y una vez te acostumbras, es difícil renunciar a ello.

Y ahora qué. Fast Mode es una vista previa de investigación, lo que significa que tanto las características como los precios pueden cambiar. Anthropic planea expandir el acceso a más clientes de la API, pero de momento lo mantiene controlado. La clave estará en ver cuántos profesionales están dispuestos a pagar ese sobreprecio de forma sostenida.

Imagen de portada | Anthropic

En Xataka | ChatGPT está recurriendo cada vez más a una fuente que suplanta a la Wikipedia: la Grokipedia de Elon Musk



via Robótica e IA - Xataka https://ift.tt/KCfJrX3

OpenClaw es la IA más viral, fascinante y peligrosa del momento. Por eso último se ha aliado con la malagueña VirusTotal

OpenClaw es la IA más viral, fascinante y peligrosa del momento. Por eso último se ha aliado con la malagueña VirusTotal

En 2025 tuvimos un 'momento DeepSeek' y en 2026 estamos teniendo un 'momento OpenClaw'. Este agente de IA es súper potente, pero también súper inseguro. Hay no obstante buenas noticias, porque la empresa malagueña VirusTotal se ha aliado con el proyecto OpenClaw para tratar de mitigar uno de los riesgos de ciberseguridad más importantes de este agente de IA: sus skills.

Qué ha pasado. OpenClaw (antes Moltbot, y antes Clawdbot) ha anunciado que ha iniciado una colaboración con la empresa de ciberseguridad malagueña VirusTotal, propiedad de Google. El acuerdo hará que VirusTotal se encargue de "escanear" y analizar los llamados "skills", que funcionan como plugins de OpenClaw y añaden todo tipo de funciones. Lo hacen, desde luego, pero muchos aprovechan para introducir instrucciones maliciosas que permiten robar datos y operar remotamente los agentes de IA de otras personas.

Más seguridad para una IA inquietante. Peter Steinberger, creador del proyecto se ha unido a Jamieson O'Reilly, experto en ciberseguridad y fundador de la empresa Dvuln, y a Bernardo Quintero, fundador de VirusTotal, para ofrecer esa "capa adicional de seguridad para la comunidad OpenClaw". En el anuncio oficial explican que "todos los skills publicados en ClawdHub [la "tienda" de skills oficial del proyecto] se escanean ahora a través del sistema Threat Intelligence de Virus Total, incluyendo su nueva capacidad Code Insight [de inspección del código]". Bernardo Quintero indicaba en Twitter cómo el esfuerzo ya ha permitido identificar 1.700 skillls como maliciosos.

Si el skill es malicioso, se bloquea. Ese análisis realizado con las herramientas de VirusTotal permite identificar skills como maliciosos para bloquearlos inmediatamente de forma que no se puedan descargar. No solo eso: aquellos skills que se han calificado como benignos se analizan de nuevo cada día para detectar escenarios en los que por alguna razón puedan acabar volviéndose maliciosos. 

Aun así, cuidado. Los responsables de OpenClaw avisan: el escaneo de VirusTotal ayuda mucho, pero no es una garantía total de que algún skill pueda lograr realizar acciones maliciosas en la máquina en la que tenemos instalado nuestro agente de IA. Los ataques de prompt injection sofisticados pueden lograr traspasar esa barrera, pero desde luego esta colaboración hace que los usuarios de OpenClaw puedan estar bastante más tranquilos respecto a los skills disponibles en el repositorio de ClawdHub.

OpenClaw quiere ser mucho más seguro. Este primer esfuerzo se une a la ambición de OpenClaw de contar con un modelo de ciberseguridad completo en el que incluya cosas como una hoja de ruta pública para sus novedades en este ámbito, un proceso de comunicación formal y detalles sobre las auditorías completas de su código. 

Taponando un problema que podía matar OpenClaw. El proyecto OpenClaw pronto se convirtió en viral debido a sus llamativas opciones, pero poco después de hacerlo una auditoría de seguridad inicial de 2.851 skills detectó 341 skills maliciosos. Empresas como BitDefender también se sumaron a estos esfuerzos para evitar problemas con herramientas como AI Skills Checker para comprobar si un skill era o no peligroso. Estos skills maliciosos eran por ejemplo capaces de ejecutar comandos shell en la máquina víctima, lo que daba control total al atacante de esos recursos. 

Atacar a la máquina es confundirla con lenguaje natural. Normalmente los ataques de ciberseguridad son complejos, pero el problema de los agentes de IA es que funcionan con lenguaje natural. Eso implica que para infiltrarse en estos sistemas no hay que usar código, sino que basta con "convencer" y "engañar" a la IA con lenguaje natural. Ahí es donde entran los ataques de prompt inyection, que consisten en dar instrucciones a esos agentes de IA que puedan llegar a confundirlos para obtener algo que teóricamente no deberían dejar obtener. Datos personales, claves API de los modelos que usamos en OpenClaw, cuentas de correo y contraseñas de todo tipo de servicios... las posibilidades son infinitas, y OpenClaw, que tiene acceso a todo ello para operar de forma autónoma, puede acabar siendo "engañado" para ceder dichos datos.

Cuidado con OpenClaw. Estos problemas parecen ahora algo menos factibles gracias a la colaboración con VirusTotal, pero quienes están probando OpenClaw en sus máquinas o en cualquier otra plataforma deben estar muy alerta desde el principio. Hay guías que ayudan a instalarlo con algunas barreras de seguridad importantes, y el propio proyecto cuenta con un comando ('openclaw security audit --deep --fix' para auditar los problemas más importantes y atajarlos.

En Xataka | OpenAI tiene un problema: Anthropic está triunfando justo donde más dinero hay en juego



via Robótica e IA - Xataka https://ift.tt/BDsPZrH

La vida en tres puntos clave: la IA nos ahorra tiempo pero nos quita la historia

La vida en tres puntos clave: la IA nos ahorra tiempo pero nos quita la historia

Hace unos días me sorprendí a mí mismo haciendo algo que hace cinco años me habría parecido un sacrilegio. Tenía delante un reportaje de esos que guardas para leer el domingo por la mañana. 5.000 palabras, una firma de prestigio y un diseñazo. Un texto de los que piden calma. Y cuando no llevaba ni dos frases, busqué por instinto el botón de 'resumir' que ahora corona mi navegador.

Nueve líneas. Eso era todo el resumen.

No fue por falta de interés, fue más bien por esa urgencia moderna que nos susurra que dedicar veinte minutos a una sola idea es una cosa ineficiente. Al cuarto de hora no recordaba casi nada de esas nueve líneas. Tenía la información, pero no tenía el conocimiento.

Estamos convirtiendo la lectura en un trámite administrativo. Lo que empezó como una herramienta de supervivencia para lidiar con la avalancha de correos del trabajo o algunos hilos de Reddit que se explayan demasiado ha colonizado nuestra capacidad de asombro.

En 2026 la IA no solo nos ayuda a escribir, también nos está enseñando a no leer. O aún peor: nos está convenciendo de que el camino es un estorbo para llegar al destino. Es la victoria definitiva del TLDR sobre la curiosidad.

El problema de externalizar la digestión es que partimos de una premisa falsa: que la sustancia de las cosas es lo único que importa. Pero en la cultura, la información o en una simple conversación, la sustancia a veces es lo de menos. Pídele a una IA que te resuma El Quijote y te dirá que va de un manchego zumbado por leer demasiado que confunde molinos con gigantes.

Tienes el dato, pero no has escuchado las conversaciones con Sancho por los caminos. No has sentido la amargura a pie de playa en Barcelona ni la lucidez de quien recupera la cordura para darse cuenta de que el mundo, sin su locura, es un sitio gris.

La tecnología, en ese empeño por eliminarnos fricciones (paradójico siendo quien nos ha encasquetado las notificaciones) nos está quitando el tejido de la experiencia. Los silencios y los matices son lo que fija la memoria.

Lo cachondo es para qué estamos usando ese tiempo que supuestamente ahorramos al no leer. No es para pensar profundamente ni para pasear sin móvil y darle al coco, sino para consumir todavía más resúmenes. Es un loop infinito (pun intended) de eficiencia vacía. Optimizamos el consumo de información para poder ingerir más información que a su vez resumimos en el próximo scroll.

Así nos convertimos en archivistas de una vida que no llegamos a presenciar. Guardamos, sintetizamos y archivamos, pero no habitamos nada.

Estamos llegando a una fase en la que el estatus de verdad, el lujo intelectual de nuestra era, no es ser muy listo ni estar al día de todo gracias a nuestro agente de IA, sino en ser capaz de sostener la atención. El prestigio es de quien se puede permitir el despilfarro de leer un texto de principio a fin, de escuchar un podcast sin saltarse los silencios ni ponerlo a 1,75x. O de acabar de ver una película sin haber echado mano del móvil durante las dos horas.

La eficiencia es una métrica estupenda para una cadena de montaje o para un servidor de AWS, pero si dejamos que guíe el ocio de una vida humana, nos estamos volviendo un poco miserables. Empezamos optimizando cada minuto para acabar dejándolo todo en una lista de tres puntos clave. O en un resumen de nueve líneas. Pero la vida no se puede resumir.

En Xataka | Hay una generación trabajando gratis como documentalista de su propia vida: no son influencers pero actúan como si lo fueran

Imagen destacada | Xataka



via Robótica e IA - Xataka https://ift.tt/7AZwxOP

domingo, 8 de febrero de 2026

ChatGPT está recurriendo cada vez más a una fuente que suplanta a la Wikipedia: la Grokipedia de Elon Musk

ChatGPT está recurriendo cada vez más a una fuente que suplanta a la Wikipedia: la Grokipedia de Elon Musk

La IA está ahogando a Wikipedia. No sólo se ha entrenado con su contenido, sino que las respuestas de IA le está robando gran parte del tráfico. Por si fuera poco, en octubre del año pasado le salió un competidor, la Grokipedia, creada íntegramente con IA (y copiada de la propia Wikipedia). Ahora sabemos que el invento de Elon Musk está atrayendo a un nuevo público: otras IAs.

Fuente: Grokipedia. Hace unos días, unas pruebas realizadas por The Guardian revelaron que ChatGPT estaba usando la Grokipedia como fuente en diversas consultas y no es el único chatbot que está citándola. Según The Verge, están apareciendo referencias en otros servicios IA como los de Google, que la cita en Google Gemini, en los resúmenes de IA y el modo IA del buscador. También ha sido citada por Microsoft Copilot y, en menor medida, Perplexity y Claude.

Volumen.  En declaraciones a The Verge, Glen Allsopp, responsable de SEO en Ahrefs, reveló que hicieron una prueba con más de 13 millones de consultas y el resultado fue que ChatGPT mencionó a la Grokipedia en más de 263.000 respuestas. Wikipedia sigue apareciendo muchísimo más, con casi 3 millones de referencias, pero teniendo en cuenta que la Grokipedia nació en octubre de 2025, el volumen de citas es bastante grande. 

La favorita de ChatGPT. Analistas de otras herramientas SEO como Semrush y Profound, afirmaron a The Verge que han detectado aumentos significativos en la cantidad de citas hacia la Grokipedia y la mayoría provienen de ChatGPT. En el caso del resto de chatbots, según las pruebas de Ahrefs Google citó a la Grokipedia en 6.800 respuestas de Gemini y 567 resúmenes de IA. Copilot la nombró en 7.700 respuestas y Perplexity sólo dos.

Del creador de MechaHitler. Wikipedia es editada de forma colaborativa y transparente por humanos, pero Grokipedia es dirigida por Grok, una IA  que ha tenido alucinaciones en las que creía que era el propio Elon Musk, ha publicado mensajes antisemitas, se llegó a proclamar "MechaHitler" y hace poco fue noticia por ayudar a "desnudar" a millones de mujeres. 

Por si fuera poco, una investigación reveló que en Grokipedia hay artículos cuyas fuentes son directamente foros neonazis y webs de teorías conspirativas. Los investigadores alertaban que Grok estaba tomando decisiones editoriales propias, alterando el enfoque en ciertos temas. Que los chatbots lo estén usando como referencia es, como poco, problemático.

OpenAI responde. En declaraciones a The Verge, un portavoz de OpenAI aseguró que ChatGPT busca en una "amplia gama de fuentes y puntos de vista" y que los usuarios pueden juzgar por sí mismos la fiabilidad de las mismas. También resaltó que implementan filtros de seguridad para evitar que aparezcan enlaces a contenido potencialmente dañino.

En Xataka | La IA está rompiendo uno de los paradigmas económicos más antiguos de la historia: que lo barato es igual a "malo"

Imagen | Amparo Babiloni, con logos de Wikipedia y Grokipedia



via Robótica e IA - Xataka https://ift.tt/kULZS6x

Las empresas están reemplazando a los trabajadores juniors con IA. Ahora toca pagar las consecuencias

Las empresas están reemplazando a los trabajadores juniors con IA. Ahora toca pagar las consecuencias

Cuando la inteligencia artificial apareció en el horizonte, lo primero que pensamos es que nos iba a retirar. Después, que iba a jubilar a los perfiles más senior y ahora sabemos que está siendo justo al revés: está frenando el acceso laboral a los perfiles junior. Antaño las empresas competían de forma feroz para atraer talento joven, pero ahora la Gen Z ha encontrado en la IA a su gran rival.

¿Principiantes? No, gracias. Este informe laboral de Revelio Labs desvela que las contrataciones para principiantes han caído en Estados Unidos un 35% desde 2023. Y es uno de los muchos estudios: este otro de ofertas laborales cifra la caída en ofertas junior entre un 11 y un 20% en el último año. El fenómeno no es exclusivo de Estados Unidos: en España estos datos de El Confidencial recogen que las Big Four van a reducir la contratación de personas menores de 30 años entre un 10 y 20%. En el Reino Unido, más de lo mismo.

La IA dispara la productividad... si eres el jefe. La premisa empresarial es que la inteligencia artificial puede llevar a cabo esas tareas de esas personas con perfil junior como documentación, pruebas o escribir código básico. No es que esas tareas hayan desaparecido dentro del flujo de trabajo, es que han sido absorbidas por niveles superiores en una vuelta de tuerca de eficiencia y productividad: los perfiles senior supervisan lo que hace la IA. Y sí, la IA mete la pata.

A la pregunta de ¿cuántas horas de trabajo a la semana te ahorra la IA? de la empresa de consultoría Section recogida en The Wall Street Journal hay una divergencia clara entre directivos y plantilla: un 40% de trabajadores piensa que no ahorra nada porque aunque haya una respuesta rápida, hay errores de bulto y alucinaciones. Cuando tienes en cuenta el tiempo invertido en revisarlo todo, comprobar y rehacer, las cuentas ya no son tan redondas: este estudio de Asana muestra que los empleados destinan 4,5 horas semanales a corregir el trabajo de la IA.

El efecto boomerang. Que la juventud se encuentre otro escollo más para tener una vida adulta plena es un auténtico drama en términos de desempleo, pero es que además este cambio de paradigma en la contratación es una amenaza total a la estabilidad de la infraestructura tecnológica tal y como la conocemos:

  • La ilusión de la eficiencia. La IA pica código más rápido que nadie, pero ese dato en bruto es engañoso porque no considera efectos colaterales como la validación.
  • El riesgo operacional. Si la IA no tiene una supervisión humana en cada paso, esta puede correr errores críticos, sirva como ejemplo cuando se cayó medio internet por la automatización total de los servidores de Amazon.
  • De costes y responsabilidades. Que la IA cometa un error y este llegue hasta la cadena final del proceso, esto es, la entrega al cliente, se paga. Que se lo digan a Deloitte, que tuvo que reembolsar el coste de un informe elaborado para el Departamento de Empleo y Relaciones Laborales de Australia porque contenía alucionaciones.

Una bomba demográfica. Todo lo anterior es un peaje que muchas empresas parecen dispuestas a pagar en aras de esa eficiencia, pero hay un efecto devastador a gran escala a medio y largo plazo: el vacío de conocimiento. Cuando esos perfiles senior se jubilen, no habrá quien pueda sustituirlos simple y llanamente porque has eliminado el campo de entrenamiento que es la experiencia.

Las cifras han hablado: entre 2024 y 2032 se jubilarán 18,4 millones de profesionales en Estados Unidos de acuerdo con este estudio de la Universidad de Georgetown. Sin embargo, solo accederán 13,8 millones de nuevos trabajadores. 

A punto de explotar. Parte del trabajo de los perfiles senior incluye la mentorización y todos sus beneficios intrínsecos: hay estudios que constatan que aumenta la motivación, fomenta el bienestar psicológico y hasta reduce el agotamiento. En pocas palabras: saturación de tareas, imposibilidad de delegar y la pérdida de ese plus de la enseñanza: se dan muchos ingredientes para la receta del burnout.

En Xataka | Si la IA nos va a dejar sin trabajo, en Reino Unido ya están discutiendo en serio la solución: una renta básica universal

En Xataka | Creíamos que la guerra de talento de la IA es sobre de ingenieros y desarrolladores. En realidad, va de fontaneros y electricistas



via Robótica e IA - Xataka https://ift.tt/Hb2RQ7l

Ya puedes probar gratis la demo Sketchbook de Pragmata en consolas

demo gratuita de Pragmata en consolas

La esperada demo gratuita de Pragmata en consolas ya es una realidad. Capcom ha decidido dar un adelanto jugable de su nuevo título de acción y ciencia ficción, permitiendo que los usuarios de PlayStation 5, Xbox Series X|S y Nintendo Switch 2 se adentren por fin en su particular propuesta después de años de silencio y retrasos.

Con esta versión de prueba, llamada Sketchbook, los jugadores pueden comprobar de primera mano si encaja con ellos la mezcla de disparos en tercera persona, puzles de hackeo en tiempo real y una ambientación de ciencia ficción muy marcada, todo ello antes del lanzamiento oficial del juego completo previsto para el 24 de abril.

Qué ofrece la demo gratuita de Pragmata en consolas

jugabilidad demo gratuita de Pragmata en consolas

La demo Sketchbook de Pragmata en consolas traslada al jugador a una estación de investigación lunar helada y aislada, ambientada en un futuro cercano donde un nuevo mineral, el lúnum, ha revolucionado la tecnología al permitir replicar prácticamente cualquier tejido. Ese contexto científico es el punto de partida de un escenario que mezcla soledad, tensión y misterio constante.

En esta versión de prueba controlamos a Hugh, un viajero espacial que forma parte de un equipo enviado a la Luna cuando se pierde el contacto con la Tierra. Tras un fuerte seísmo lunar, el protagonista se despierta separado del resto, acompañado únicamente por Diana, una androide con apariencia de niña que se convierte en su principal apoyo tanto a nivel narrativo como jugable.

El objetivo durante la demo es abrirse paso por una sección concreta de la estación, donde la inteligencia artificial central ha catalogado a Hugh y a Diana como amenazas y lanza contra ellos todo un despliegue de bots y robots de seguridad diseñados para «neutralizar» intrusos. Esta situación sirve de excusa para presentar las mecánicas principales sin destripar en exceso los giros de la historia.

Capcom ha indicado que esta prueba está pensada para que sea corta pero intensa, con suficiente chicha como para hacerse una idea clara del tono, el ritmo y el tipo de retos que planteará la aventura completa, pero sin llegar a agotar sus cartas ni mostrar zonas clave de la trama.

Mecánicas de juego: disparos y hackeo a dos bandas

Uno de los aspectos más llamativos de la demo gratuita de Pragmata es su planteamiento jugable. A primera vista podría parecer un shooter en tercera persona al uso, pero en realidad la base se apoya en una cooperación forzada entre los dos protagonistas, que condiciona por completo el desarrollo de los combates.

Durante la acción, el jugador controla directamente a Hugh, encargado de moverse por los escenarios, cubrirse y abrir fuego contra los robots hostiles. Sin embargo, estos enemigos solo pueden ser dañados de manera efectiva cuando Diana consigue hackearlos, lo que obliga a alternar de forma constante entre disparar, reposicionarse y resolver puzles bajo presión.

Cuando se activa el hackeo, la pantalla muestra una cuadrícula en la que hay que resolver un pequeño rompecabezas en tiempo real. Mientras se intenta completar el patrón correcto, el entorno sigue siendo peligroso, de modo que hay que estar atento tanto a los ataques enemigos como a las casillas especiales del tablero, que pueden reiniciar el reto o mejorar los ataques disponibles.

Estas casillas de efectos añadidos aportan variedad: algunas permiten potenciar el daño que realiza Hugh durante unos segundos, otras ralentizan el movimiento de los bots y otras suponen un castigo si se pisan, como volver al inicio del rompecabezas. Esta combinación de acción táctica y resolución de problemas genera un ritmo particular, más pausado y estratégico que el de un shooter convencional.

El arsenal disponible en la demo no es muy amplio, pero sí suficiente para entender por dónde van los tiros: hay armas pensadas para ralentizar y controlar grupos de enemigos, y otras que apuestan por el daño directo y la eliminación rápida de objetivos prioritarios una vez que el hackeo de Diana ha hecho su efecto.

Rejugabilidad, sorpresas y secretos ocultos en la demo

Capcom insiste en que la demo Sketchbook no está planteada como una simple muestra lineal de contenidos, sino como un pequeño laboratorio donde experimentar con las mecánicas. Por ello, los desarrolladores animan a los jugadores a repetir la demo varias veces para descubrir todo lo que esconde.

Según la información facilitada, hay elementos ocultos y pequeñas sorpresas que no se aprecian necesariamente en la primera partida: cambios ligeros en ciertos encuentros, detalles de la estación que pueden pasar desapercibidos y variaciones en la forma de afrontar algunos combates o puzles en función de cómo se haya explorado cada zona.

Esta filosofía encaja con el enfoque de capar ligeramente el contenido pero premiar la curiosidad del jugador, incentivando que se fije en la ambientación de ciencia ficción, que pruebe diferentes estrategias y que observe con atención la relación entre Hugh y Diana, que parece ser uno de los ejes emocionales del juego completo.

Para quienes sigan de cerca el proyecto desde 2020, cuando se presentó oficialmente durante el evento de lanzamiento de PlayStation 5, la demo funciona como un primer contacto real tras varios años de información a cuentagotas. Después de tanto tiempo, poder probar una porción jugable ayuda a despejar dudas sobre el tipo de experiencia que Pragmata quiere ofrecer.

Dónde descargar la demo en España y resto de Europa

La demo gratuita de Pragmata en consolas está ya disponible en los principales bazares digitales de Europa. En el caso de Nintendo Switch 2 se puede encontrar en la Nintendo eShop; los usuarios de PlayStation 5 deben acceder a PlayStation Store, mientras que en Xbox Series X|S se descarga desde la Xbox Store como cualquier otra versión de prueba.

En todos los casos, la descarga se ofrece como una demo pública sin coste, sin necesidad de haber reservado el juego ni de contar con ediciones especiales. Únicamente se requiere espacio libre en la consola y conexión a internet para completar la instalación, como es habitual en este tipo de contenidos en España y el resto de territorios europeos.

Además de su llegada a consolas, Capcom recuerda que la misma demo Sketchbook también está disponible en Steam para PC, lo que permite comparar rendimiento y sensaciones jugables entre plataformas. Para los jugadores que tienen varios sistemas en casa, puede ser una buena forma de decidir en qué versión hacerse con el título final.

Fecha de lanzamiento, plataformas y extras por reserva

Más allá de la demo, Capcom ha fijado oficialmente el 24 de abril de 2026 como fecha de lanzamiento de Pragmata. El juego se publicará de forma simultánea para Nintendo Switch 2, PlayStation 5, Xbox Series X|S y PC a través de Steam, de modo que prácticamente todo el público de consolas actuales en Europa tendrá acceso al lanzamiento desde el primer día.

Las reservas del juego completo ya están activas en las principales cadenas y tiendas digitales, y vienen acompañadas de algunos incentivos estéticos. Entre ellos destacan el traje de Neo Bushido de inspiración samurái para Hugh y el atuendo Neo Kunoichi para Diana, basado en la figura clásica del ninja pero adaptado al estilo futurista del juego.

En el caso concreto de Nintendo Switch 2, está previsto el lanzamiento de una figura amiibo de Diana en la misma fecha que el juego. Esta figura será compatible con la versión para la consola de Nintendo y, aunque todavía no se han detallado todas sus funciones, Capcom ha confirmado que ofrecerá algún tipo de contenido adicional o ventajas dentro del propio título.

Con este calendario sobre la mesa, la demo Sketchbook sirve como antesala directa de la versión final, permitiendo que la comunidad en España y Europa pueda llegar al 24 de abril con una idea bastante clara de lo que se va a encontrar y de si le compensa o no dar el salto al juego completo.

Con la llegada de la demo gratuita de Pragmata en consolas, Capcom pone por fin en manos del público todo lo que hasta ahora solo se había visto en tráilers y materiales promocionales: una aventura de ciencia ficción en una luna hostil, un sistema de combate que mezcla disparos y puzles de hackeo, y una pareja protagonista que debe colaborar para sobrevivir. Tanto si se juega en PS5, Xbox Series o Nintendo Switch 2, esta prueba Sketchbook funciona como carta de presentación sólida para comprobar si el enfoque de Pragmata encaja con lo que cada jugador busca antes de la llegada del lanzamiento definitivo.



via Actualidad Gadget https://ift.tt/p2vSMzl