sábado, 27 de abril de 2024

NVIDIA es el gigante de la IA, pero tiene riesgos a medio plazo y la última palabra es de TSMC

NVIDIA es el gigante de la IA, pero tiene riesgos a medio plazo y la última palabra es de TSMC

Una de las grandes protagonistas tecnológicas de este inicio de año ha sido NVIDIA, por sus propios méritos y por su escalada vertical en bolsa, que la llevó a crecer un 90% en las primeras semanas de 2024 al compás de unos ingresos y sobre todo unos beneficios que han estado creciendo muy por encima de sus ritmos habituales.

La culpable, por supuesto, la gran expectación y ánimo por comercializar productos en torno a la IA generativa que ha empujado a muchas empresas a comprar a NVIDIA sus tarjetas especializadas en este tipo de tareas. Sin embargo, esta última corrección, si bien ya está siendo remontada, ha abierto una posible preocupación sobre el futuro de la empresa.

Diseño, no fabricación. NVIDIA diseña de chips que comercializa a terceros. Luego está Apple, que diseña los chips que pone en sus propios productos. Microsoft no hace esto último, pero lo hará aliándose con Intel. Y esto da una pista de cuál es el riesgo para NVIDIA: que cada vez más empresas decidan diseñar sus propios chips en lugar de comprarlos a quienes se los suministran. Como NVIDIA.

Es decir: la dependencia de fabricantes externos, y el hecho de que las grandes tecnológicas sigan anunciando que pasarán a diseñar ellas mismas los chips. No es un proceso rápido ni fácil, pero son este tipo de empresas las que tienen recursos y capital para invertir en ello.

Doble riesgo. Por un lado, empresas que hagan el movimiento de Microsoft estarían reduciendo su dependencia de NVIDIA, dejando de comprar al menos una parte de los chips que ahora les adquieren, y además fortaleciendo su capacidad de innovar internamente. También la de adaptar sus productos a sus necesidades concretas, como hacen Apple con Apple Silicon, Google con Tensor o Samsung con Exynos, si bien estos últimos no pasan por su mejor momento.

Este tipo de empresas tiene también un gran control sobre su cadena de suministro, y dada su escala, solo el hecho de encontrar opciones más competitivas en precio, rendimiento al margen, ya sería una motivación suficiente como para dar este salto, erosionando la cuota de mercado de NVIDIA. Y hablamos de empresas, pero grandes potencias mundiales como China y Estados Unidos también están entre los compradores de estos componentes.

El papel de TSMC. Taiwan Semiconductor Manufacturing Company, conocida como TSMC, es quien fabrica los chips de NVIDIA. Los que puede, al menos, porque hace unas semanas supimos que el crecimiento de NVIDIA había hecho que TSMC fuese desbordada hasta el punto de no ser capaz de satisfacer la demanda.

Esto último es también un síntoma de hasta qué punto la industria depende de una TSMC cuya capitalización de mercado está por encima de gigantes como Tesla, Samsung o Tencent. Algo que también podría aprovechar en su favor endureciendo las condiciones de contratación, algo que ya ha dejado entrever que es su opción preferida. No es descabellado: su dominio es tal que ya es el fabricante de chips con mayores ingresos del planeta. Su cuota de mercado supera el 50%.

Y la competencia. No solo la que ya está presente en el mercado, aunque sea a cierta distancia de NVIDIA, sino la que dibuja un futuro en el que sus chips den un salto lo suficientemente grande como para empezar a rivalizar con los de la empresa de Huang. Por ejemplo, Samsung, que aspira a ello con su chip Mach-1 y ha puesto en marcha un laboratorio especializado en IA general para dar el zarpazo a la industria.

No a corto plazo. En el futuro inmediato no hay muchos nubarrones para NVIDIA, que va a seguir siendo líder indiscutible en el mercado de chips especializados en IA. A medio plazo, los riesgos, si bien no son algo que dar por hecho, tampoco pueden ser ignorados.

Algunas alternativas que podría tomar NVIDIA sería reinvertir una parte de los recursos obtenidos en esta lucrativa etapa para construir sus propias plantas de fabricación de chips, o hacer alguna adquisición que les permita atajar este proceso.

Lo mismo con la firma de alianzas estratégicas que reduzcan su dependencia de TSMC y su exposición a un posible escenario de fabricantes optando por sus propios diseños.

En Xataka | TSMC, Intel y Samsung no "pelean" solo por los nm. Su futuro está ligado a su tecnología de empaquetado de chips

Imagen destacada | José G. Ortega Castro en Unsplash



via Robótica e IA - Xataka https://ift.tt/MqwTC0Z

Apple está llegando tan tarde la explosión de la IA que según Gurman está negociando con un aliado insospechado: OpenAI

Apple está llegando tan tarde la explosión de la IA que según Gurman está negociando con un aliado insospechado: OpenAI

Los rumores sugieren que iOS 18, la próxima versión del sistema operativo del iPhone, llegará con un montón de novedades relacionadas a la inteligencia artificial (IA). Ahora bien, no parece estar muy claro qué modelos de lenguaje utilizará Apple.

Hace poco más de dos meses trascendió que la compañía de Cupertino estaba negociando con Google para impulsar algunos de sus productos con la tecnología subyacente de Gemini. Esto debido a que sus propios modelos de IA tardarían en estar listos.

Inteligencia artificial, Apple, Google y OpenAI

Sí, Apple lleva años trabajando con algoritmos para dar vida a conceptos como el de la fotografía computacional, pero el sorpresivo auge de la IA de la mano de chatbots como ChatGPT se habría convertido en un problema. ¿La solución? Apoyarse en sus rivales.

Cuando todo parecía indicar que iOS 18 llegaría con elementos de Google en sus entradas, Mark Gurman ha llegado con una noticia inesperada: Apple está en conversaciones con OpenAI para impulsar algunas de las nuevas funciones de IA de iOS 18.

A todo esto, se suma la información de que el fabricante del iPhone ha pisado el acelerador y sus avances internos sobre IA parecen estar dando buenos resultados. Sin ir más lejos, esta semana investigadores de Apple lanzaron una familia de cuatro grandes modelos.

Iphone Iphone

Fuentes anónimas señalan que Apple y OpenAI ya habían estado conversando a principios de este año, pero que nuevamente están evaluando un posible acuerdo. Dicen, además, que Apple no ha tomado una decisión final sobre qué modelos utilizará.

Así que podríamos ver un iOS 18 con funciones impulsadas por tecnología de Google o de Apple. En cualquier caso, todo parece indicar que ciertos módulos internos del sistema funcionarán definitivamente con los modelos que Apple ha desarrollado internamente.

Todo esto se presenta a aproximadamente un mes y medio de la WWDC 2024, conferencia de desarrolladores donde debería aparecer la nueva versión de iOS, una versión que se presenta como una de las más importantes de la historia de la compañía.

Imágenes | Apple | OpenAI | Amjith S

En Xataka | No es Steve Jobs, es Mustafa Suleyman: el CEO de IA de Microsoft que se apunta a la tendencia de vestir “al estilo Jobs”



via Robótica e IA - Xataka https://ift.tt/hFXYnoJ

viernes, 26 de abril de 2024

Elon Musk anuncia el momento en el que su robot humanoide Optimus saldrá al mercado

Elon Musk no se conforma con llevar al hombre a Marte o con poner a personas con movilidad a mover cosas con el cerebro. El empresario también quiere desarrollar robots que puedan llevar a cabo labores tediosas y repetitivas para que, de este modo, el ser humano pueda dedicarse a otro tipo de labores. Y el primer paso para conseguirlo es Optimus , el humanoide de Tesla, que ya está relativamente cerca de comenzar a ser comercializado. O, al menos, eso es lo que dice Musk. De acuerdo con los planes del empresario, Tesla comenzará a vender unidades de Optimus a finales del próximo año 2025. Para ese momento, la compañía espera sea capaz de realizar «tareas útiles» en fábricas y otro tipo de empresas y que, con tiempo, termine convirtiéndose en uno de los activos más «valiosos» de la firma. ¿El precio de la unidad? Unos 20.000 dólares. Noticias Relacionadas estandar No Atlas, el robot contorsionista que parece salido de Star Wars y que va a fabricar coches Rodrigo Alonso estandar No Los cinco robots con forma humana más avanzados y curiosos: todo lo que saben hacer Rodrigo Alonso Tesla mostró la primera versión de Optimus a finales de 2021 y lo definió como un robot humanoide destinado al trabajo y a llevar a cabo tareas sencillas del hogar, como cargar cajas o regar las plantas. Luce una apariencia que recuerda a la de un humano; cuenta con brazos, piernas y dedos. Su altura es de 1,73 metros y su peso de 57 kilogramos. Siguiendo esta línea, en diciembre del pasado año, Tesla presentó la segunda generación del robot humanoide, que ya muestra mayor movilidad tanto en el cuello como en las manos e introduce mejoras como los sensores en los dedos, para manejar objetos más delicados con diferentes niveles de presión. Esta segunda generación también es capaz de caminar un 30 por ciento más rápido que el modelo anterior y dispone de un mejor equilibrio. Esto se debe a que Optimus Gen 2 es más ligero, ya que se ha reducido su peso en 10 kilogramos sin sacrificar sus funcionalidades. En este marco, Musk ha detallado que, actualmente, Optimus puede realizar «tareas en fábrica sencillas», que se están probando en el laboratorio, y que, según las previsiones de la empresa, el robot humanoide podrá realizar «tareas útiles» antes de finales de este año. «Optimus será más valioso que todo lo demás combinado», ha sentenciado el también propietario de la red social X, en la última llamada de resultados de Tesla. Esto se debe a que, según ha dicho, un robot humanoide «sensible» capaz de moverse en entornos reales y cambiantes y realizar las tareas que soliciten los usuarios. Igualmente, Musk también ha asegurado que Tesla está mejor posicionada que el resto de compañías tecnológicas dedicadas a la fabricación de robots humanoides. No obstante, no hay que olvidar que esta no es la única que está trabajando en la fabricación de dispositivos de estas características. Boston Dynamics, la creadora del perro robot Spot , sigue desarrollando su humanoide Atlas , que recientemente recibió una actualización importante y comenzó a lucir una nueva apariencia. Lo mismo ocurre con Figure AI, firma que he recibido una inversión millonaria de OpenAI y Microsoft y que está utilizando la tecnología de ChatGPT para hacer hablar y razonar a su humanoide Figure 01 .

via Tecnología https://ift.tt/AHRISyY

jueves, 25 de abril de 2024

Los chatbots de IA se inventan muchas de las respuestas: unos exinvestigadores del MIT tienen una particular solución

Los chatbots de IA se inventan muchas de las respuestas: unos exinvestigadores del MIT tienen una particular solución

Los chatbots se han convertido en uno de los ejes del auge de la inteligencia artificial (IA). Desde ChatGPT y Copilot hasta Claude Chat y Perplexity, estas herramientas son tendencia. Sin embargo, por mucho que nos entusiasmemos, no debemos confiar plenamente en sus respuestas.

Y, sino que se lo digan al abogado que recurrió a ChatGPT para salir victorioso en un juicio y descubrió que los documentos presentados ante el juez contenían decisiones judiciales, referencias y citas falsas. Como podemos ver, los chatbots tienen muchas virtudes, pero la fiabilidad no es una de ellas.

Una posible solución al problema de fiabilidad

Un estudio publicado por una compañía emergente fundada por exempleados de Google sugiere que los chatbots tienen una tasa de alucinaciones de al menos el 3%. Para muchos usuarios esto puede ser un problema menor, pero las cosas cambian cuando hablamos de usos profesionales.

Las herramientas impulsadas por grandes modelos de lenguaje (LLM) están llegando al mundo empresarial a través de soluciones como Copilot en Office 365. Ahora bien, si los empleados acaban manejando información errónea, esto podría acabar provocando más de un dolor de cabeza a la firma.

Cleanlab, una startup fundada por exinvestigadores del MIT acaba de lanzar su propia iniciativa para abordar este problema. Estamos hablando de una herramienta impulsada por lo que denominan Trustworthy Language Model (TLM), un enfoque que apunta a la fiabilidad de las respuestas.

TLM funciona como una “capa de confianza” para que los usuarios puedan saber qué tan fiable es la respuesta que acaban de recibir a través de un sistema de puntuación. Esta herramienta ha sido diseñada para que pueda funcionar de manera complementaria a modelos como GPT-3.5, GPT-4 y modelos personalizados de empresas.

Tlm Roi Graphic 1600px Bf7d2466a50432bcb98c8dbf4bdf3f30 Tlm Roi Graphic 1600px Bf7d2466a50432bcb98c8dbf4bdf3f30

El sistema envía nuestra pregunta a varios modelos y después analiza su devolución. La respuesta llegará acompañada con un puntaje que se situará entre 0 y 1. En una prueba sencilla en la que hemos preguntado la raíz cuadrada de nueve hemos recibido una respuesta correcta (3) con un puntaje de 0,885.

Tlm Herramienta Ia Tlm Herramienta Ia

Cleanlab señala que ChatGPT en su versión gratuita puede equivocarse en cosas muy simples. Al preguntar cuántas veces aparece la letra “N” en la palabra “enter”, el chatbot de OpenAI suele responder que la letra aparece dos veces. Lo hemos probado y efectivamente el chatbot responde erróneamente.

La startup imagina a su tecnología siendo útil en un amplio abanico de usos. Mencionan que podría ayudar a los chatbots de atención al cliente a ser más fiables. El chatbot funcionaría de manera automatizada, pero si una de las respuestas cae por debajo del umbral de fiabilidad, se podría solicitar la intervención de un humano.

Si eres un entusiasta de la inteligencia artificial puedes probar TLM a través de la web. La herramienta también está disponible a través de una API. Cabe señalar que la solución se encuentra disponible a través versiones gratuitas de código abierto y versiones de pago con características adicionales.

Imágenes | Cleanlab | Captura de pantalla

En Xataka | El ganador más inesperado de la primera gran batalla por la IA es también al que dábamos por muerto: Meta



via Robótica e IA - Xataka https://ift.tt/zne0BFL

El ganador más inesperado de la primera gran batalla por la IA es también al que dábamos por muerto: Meta

El ganador más inesperado de la primera gran batalla por la IA es también al que dábamos por muerto: Meta

Mark Zuckerberg estaba en modo cabezón. No paraba de apostar por el metaverso mientras el mundo parecía decirle a gritos que se dejara de historias. Lo que Meta había mostrado hasta el momento no tenía mucho que ver con lo que había prometido el fundador de Facebook. Era más bien una mala copia de Wii Sports.

Pero Zuckerberg seguía emperrado y gastando un dineral en un proyecto que hasta hizo que Facebook ya no fuera Facebook, sino Meta. Los meses pasaban, y 2022 fue un año terrible para la empresa, que se veía aparentemente dentro de una espiral que podía llevarla al desastre.

Las cosas no mejoraron en noviembre de 2022, cuando OpenAI sacudió al mundo con el lanzamiento de ChatGPT. Google y Microsoft apostaron rápidamente por la IA generativa, pero a Zuckerberg aquello no parecía importarle. Era febrero de 2023 y Meta parecía haber perdido bastante el rumbo. Bueno, el rumbo y 13.700 millones de dólares.

Pero hace justo un año, en abril de 2023, hubo un punto de inflexión. En las reuniones con marcas que contrataban publicidad con sus plataformas, Meta dejó de mencionar el metaverso y centró la prioridad en productos como Reels. Por entonces incluso se hablaba tímidamente de algunos esfuerzos en inteligencia artificial. Las cosas empezaban a cambiar aunque Zuckerberg afirmaba que "seguimos muy comprometidos" con el metaverso.

Lo cierto es que a partir de entonces el metaverso empezó a quedar relegado a un segundo plano mientras la IA iba ganando más y más fuerza en Meta. La empresa presentaba un nuevo chip de IA en mayo de 2023, y a ese lanzamiento le siguieron otros como el del modelo LIMA, MusicGen, o VoiceBox. Mientras, el máximo responsable de IA en Meta, Yann LeCun, afirmaba que la amenaza de la IA a la humanidad es "absurdamente ridícula".

En julio de 2023 la cosa se animaba aún más. Meta presentaba Llama 2, un LLM que se podía descargar y usar en local y que detonó una avalancha de versiones derivadas de sus prestaciones. Por fin teníamos un rival visible de ChatGPT por parte de este gigante, que además se ponía a trabajar inmediatamente en la siguiente versión.

La firma dio otro paso importante más en su apuesta por la IA en septiembre, cuando presentó su propio chatbot, Meta AI, y comenzó a integrarlo en versión preliminar en Instagram, Messenger o WhatsApp. Siguió presentando nuevos modelos como Emu Edit y Emu Video y se autoconvirtió en adalid de la IA Open Source aunque en realidad Llama 2 no es del todo Open Source.

Por fin, recién estrenado 2024, Mark Zuckerberg se apuntaba de lleno a la tendencia. La prioridad de Meta no era el metaverso, nos dijo, sino crear una AGI. "Nuestra visión a largo plazo es desarrollar la inteligencia (artificial) general, abrirla al Open Source de forma responsable y hacerla ampliamente disponible para que todos puedan beneficiarse", explicaba entonces.

Y tras ello, más y más anuncios. Llegaron Code Llama 70B y sobre todo, hace apenas una semana, Llama 3. El nuevo LLM es más ambicioso y potente que nunca, y representa la confirmación absoluta de un giro radical para una empresa a quien el metaverso le ha salido muy caro y que ha cambiado de estrategia para alegría de sus inversores.

La apuesta por la IA le sale muy bien a Meta

De hecho, las cosas en Meta difícilmente pueden ir mejor ahora mismo. Esta semana la compañía presentó sus resultados financieros, y las cifras fueron espectaculares: 27% más de ingresos y 117% más de beneficios respecto al mismo periodo del año pasado. El cambio de apuesta a la IA le ha salido realmente bien a los de Zuckerberg.

Captura De Pantalla 2024 04 25 A Las 10 46 27 Captura De Pantalla 2024 04 25 A Las 10 46 27 Hace exactamente un año las acciones de Meta estaban a 209,40 dólares. Ayer —y eso que bajaron sensiblemente— estaban a 493,50 dólares. La apuesta por la IA funciona, al menos para los mercados y los inversores. Fuente: Google Finance.

Durante una conferencia con los inversores Zuckerberg indicó que aunque los resultados estaban siendo positivos, convenía ser cautelosos: "los primeros indicios también son bastante positivos", destacaba, "pero construir la IA líder también será un reto mayor que las otras experiencias que hemos añadido a nuestras aplicaciones, y es probable que esto lleve varios años...".

Aún así, las cosas marchan para la apuesta IA de Meta. Según su CEO, el asistente Meta AI ha sido ya probado por "decenas de millones de personas" desde que se habilitó de forma masiva coincidiendo con el anuncio de Llama 3.

El futuro se presenta por tanto especialmente halagüeño para una Meta que ha logrado dar un giro estratégico para centrar su discurso en la IA. Lo ha hecho además sin renunciar ni mucho menos al metaverso. De hecho esa otra apuesta de Meta vuelve a ganar enteros gracias a las Vision Pro, que han hecho que el interés por el segmento de la realidad mixta aumente.

Ahora Meta quiere no ser solo líder en IA, sino convertirse en el Windows de la realidad virtual. Conseguir ambos objetivos es un reto espectacular, sobre todo porque no está nada claro que ni una ni otra apuesta salgan bien. La IA es más prometedora pero la competencia es gigantesca, y mientras el éxito de la realidad mixta parece seguir estando lejos.

Y sin embargo, Meta ya no parece estar ni mucho menos acabada. Parecía estarlo hace un año. Hay que ver cómo cambia el cuento.

Imagen | Davidelonghitano con Midjourney

En Xataka | Probamos el nuevo Meta AI con Llama 3: la verdadera oportunidad para aplastar a ChatGPT no está en la web



via Robótica e IA - Xataka https://ift.tt/Dpxb8wA

Apple publica sus nuevos y diminutos modelos LLM. Son una pista clara de que el iPhone tendrá su "AppleGPT"

Apple publica sus nuevos y diminutos modelos LLM. Son una pista clara de que el iPhone tendrá su

En Apple parecían haber perdido el tren de la IA, pero en los últimos meses han tratado de ponerse las pilas y poco a poco —y a base de dinero— han comenzado a compartir algunos de sus avances en este terreno. El último es especialmente interesante, porque apunta directamente a qué tipo de IA veremos en sus iPhone más temprano que tarde.

Los diminutos OpenELM. Investigadores de Apple han publicado OpenELM (Open-source Efficient Language Models), una familia de cuatro grandes modelos de lenguaje (LLM) que en realidad son diminutos si los comparamos con la mayoría de modelos en los que se basan ChatGPT o Gemini, por ejemplo. Apple también tiene un estudio de investigación que acompaña a la publicación de los modelos.

Cuatro "tamaños". Los modelos están disponibles en versiones 270M, 450M, 1,1B y 3B. El más pequeño, el de 270 millones de parámetros, es significativamente compacto, y por ejemplo el modelo Phi-3 Mini que Microsoft acaba de publicar tiene 3.8B parámetros, es decir, es 14 veces más grande en número de parámetros. Cada tamaño tiene dos versiones, una "pre-trained" (más general) y una "instruction-tuned" (más centrado en un propósito específico).

La eficiencia por bandera. Como su nombre indica, el objetivo en estos modelos es buscar la eficiencia, o lo que es lo mismo, poder ejecutarlos sin que el consumo de recursos sea gigantesco. Los modelos más grandes requieren más capacidad de cálculo para poder generar texto con fluidez, pero en OpenELM los requisitos son mucho más modestos, y eso apunta directamente a un objetivo.

El iPhone, a por su propio "AppleGPT". Ya hemos hablado en el pasado de los planes de Apple para crear su propio chatbot, al que hemos bautizado tentativamente como "AppleGPT". Es más que probable que no se llame así, pero lo que sí está claro es que se ejecutará en el iPhone (u otros dispositivos Apple) de forma local, sin necesitar la nube. Estos nuevos modelos son los suficientemente pequeños para ejecutarse sin aparentes problemas en los potentes chips de Apple, aunque también tienen una desventaja.

Más limitados. Cuando más pequeño es un modelo, más "generalista" y menos rico, preciso y específico puede ser. No podrán competir por tanto con modelos mucho más ambiciosos como GPT-4 o los usados en Gemini 1.5 Pro o Claude 3 Opus, pero es que estos modelos necesitan mucho más recursos para poder funcionar de forma fluida, de ahí que por ahora la nube sea la alternativa para usarlos.

Pruebas sintéticas. La variante de 450M es la que mejor se comporta comparativamente según las pruebas realizadas en el estudio de investigación, pero es superado por otros modelos Open Source en diversos escenarios. Quienes lo han probado lo califican como un modelo "sólido pero muy alineado", lo que quiere decir que sus respuestas son poco creativas y muy formales.

Y también pueden equivocarse. La propia Apple avisa de que estos modelos "se ponen a disposición sin ninguna garantía de seguridad. Por consiguiente, existe la posibilidad de que estos modelos produzcan resultados inexactos, perjudiciales, sesgados o censurables en respuesta a las indicaciones de los usuarios".

En Xataka | El plan de Apple para liderar en IA, más vivo que nunca: la compra de Darwin AI es prueba de ello



via Robótica e IA - Xataka https://ift.tt/9DQZIM0

miércoles, 24 de abril de 2024

Si la pregunta es "qué hacer con 10.000 euros" la respuesta puede ser comprar un perro robótico que escupe fuego

Si la pregunta es

Imagina lo siguiente: te levantas una mañana y tienes 10.000 euros extra en el banco. Te han llovido del cielo, libres de impuestos, pa'ti pa'siempre. ¿Qué haces con ellos? Pues a ver, 10.000 euros no van a sacar a nadie de pobre, pero un capricho sí que te puedes dar. Podrías ir al restaurante más caro del mundo unas cuentas veces, comprar una casa prefabricada en Amazon, invertirlos en alguna cosa o, mejor todavía, comprar un perro robótico que escupe fuego con un nombre tan molón como...

Thermonator. Bromas aparte, este producto existe, es completamente real y se vende en Estados Unidos. No es que se venda, es que cualquier persona lo puede comprar. Este peculiar perro robot que parece una racha de bajas de 'Call of Duty' se anunció el año pasado y ahora se ha puesto a la venta por 9.420 dólares, unos 8.840 euros al cambio. No es que sea barato, pero no es tan caro como el Spot de Boston Dynamics, que asciende a más de 60.000 euros la unidad. Y bueno, no escupe un enorme chorro de fuego letal a una distancia peligrosamente alta.

Quién está detrás. La compañía Throwflame, una empresa con sede en Ohio especializada, como su propio nombre indica, en lanzallamas. En Estados Unidos, los lanzallamas son herramientas no reguladas a nivel federal y la ATF (Agencia de Alcohol, Tabaco, Armas de Fuego y Explosivos) no las considera armas de fuego (curiosamente). Hasta se pueden usar sin licencia. Hay excepciones, como en California, donde sí se necesita una licencia para lanzallamas con un rango de tres metros o más; o Maryland, donde sí son considerados "dispositivos destructivos" y se pueden poseer con licencia.

Hablemos del perro. El Thermonator se trata de un robot cuadrúpedo que se puede controlar de forma remota. Tiene un peso de cerca de 12 kilos y dispone de mapeo LiDAR, navegación FPV (punto de vista), mirilla láser, capacidad para salvar obstáculos, una batería con hasta una hora de autonomía, WiFi y Bluetooth. No se especifica si puede funcionar de forma autónoma. Lo que sí se especifica es que, sobre su espalda, el perro monta un lanzallamas Arc.

Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame
Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame

Una máquina de escupir fuego. El lanzallamas Arc está hecho de aluminio y es capaz de disparar un chorro de fuego a un máximo de nueve metros de distancia con solo pulsar un botón. Funciona gracias a una batería con 45 minutos de autonomía y se puede colocar sobre un perro robot, un trípode o un rifle de asalto. Esto lo dicen así en la propia web de la compañía, por cierto. En cuanto al combustible, se puede usar tanto diésel como gasolina.

Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame
Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame

Para qué. Es una excelente pregunta. Según Throwflame, Thermonator está preparado para, y citamos textualmente, "control y prevención de incendios forestales", "gestión agrícola", "conservación ecológica", "eliminación de nieve y hielo" y "entretenimiento y efectos especiales". A nivel profesional puede tener varios usos interesantes, pero la realidad es que no es complicado imaginar un escenario en el que el uso del Thermonator a nivel usuario acaba regular. Un incendio forestal, por ejemplo.

Imágenes | Throwflame

En Xataka | Las flechas incendiarias son el arma favorita de las ficciones medievales. En realidad no servían para nada



via Robótica e IA - Xataka https://ift.tt/tdRyhZs

China se propuso en 2018 utilizar la IA para informar masivamente. Seis años después va muy por delante de Occidente

China se propuso en 2018 utilizar la IA para informar masivamente. Seis años después va muy por delante de Occidente

Año 2018, el presidente chino Xi Jinping identifica como una misión “necesaria” que el partido estatal del país “desarrolle sistemas de inteligencia artificial adecuados para los servicios gubernamentales”. De aquella frase han pasado seis años y millones de dólares, un esfuerzo titánico que ha convertido a China en pionera del uso de la IA como instrumento de comunicación de masas. De fondo, un conjunto de herramientas tan fácil de usar y acceder a ellas que plantea un cambio de paradigma de los medios de comunicación.

En diciembre del año pasado, un clip de vídeo revolucionó las redes en occidente. Lo lanzaba el británico Channel 1 y eran 21 minutos donde se nos mostraba un informativo rápido y dinámico, con diferentes tipos de coberturas en directo y, sobre todo, con una sorpresa final para el espectador: absolutamente todo lo que estábamos viendo era digital, es decir, el programa y sus presentadores no eran reales, los había generado una IA.

Channel 1 anunciaba así una especie de medio informativo “a la carta” del que sabremos más a lo largo del año y que se lanzará en algún momento de 2024, quizás algo más tarde. Además y según explicaron, la IA no solo estará vinculada a la creación de los presentadores, también se añadirá a las noticias para crear dramatizaciones o expandir material gráfico real con otro generado.

China y la IA al servicio de los medios gubernamentales

Esto que nos sonaba a distopía era algo que en China llevaban bastante tiempo desarrollando. De hecho, tras las mencionadas palabras de Xi Jinping, la Administración Estatal de Radio, Cine y Televisión impulsó el desarrollo de presentadores de IA, y en pocos años comenzaron a aparecer docenas de estaciones de televisión estatales con presentadores digitales.

David Bandurski, del grupo de investigación independiente basado en Hong Kong, China Media Project (CMP), ha hecho pública una investigación que cuenta la aparente sistematización de la iniciativa propagandística china.

Los periodistas cuentan que hoy existen alrededor de una veintena de medios con la IA como raíz. El primer paso dado en el país fue instar a todos los medios a utilizar los algoritmos para mejorar la calidad de su contenido. En la práctica, en espacios como el cuartel general de medios de People's Daily, el periódico oficial del Partido Comunista de China, la IA hace uso de big data para generar imágenes, texto y análisis “en cuestión de segundos”. También están desarrollando un “software de traducción asistida por IA” con el que perfeccionarán la “divulgación” en el extranjero. En este sentido, es importante recordar que utilizar algoritmos para mejorar el contenido del medio también se hace en occidente.

Enn el trabajo de CMP cuentan que en Chongqing (31 millones de habitantes), donde está la sede del periódico del partido estatal, hay una planta dedicada en su totalidad a la creación de artículos y vídeos en inglés sobre la propia urbe y China. Lo curioso es que no hay ni un solo presentador, ya que el moderador de la mayoría de las noticias es un avatar creado por IA para nutrir contenido de sus publicaciones.

También tienen sus propias aplicaciones -la de Chongqing, por ejemplo, se llama "Bridging News"- y sitios web o canales en YouTube.

De esa veintena de medios basados en IA la principal y más promocionada en China Daily es Zhongke Wenge. Ésta supone una pequeña revolución, ya que sus tecnologías permiten recortar los tiempos de producción en las empresas de noticias en hasta un 15%, mientras que sus herramientas de “toma de decisiones asistidas” permiten a las plataformas evaluar cómo se reciben sus historias y, muy importante (clave, diría), no solo a nivel nacional, también en el extranjero.

Según la propia Zhongke Wenge, recopilan información de medios de comunicación nacionales e internacionales, así como de personas destacadas, en nada menos que 42 idiomas diferentes, todo a través de su sistema de seguimiento multilingue.

Un presentador de IA Un presentador de IA Uno de los muchos presentadores de IA en China.

Hay más. Zhongke, apoyados en el big data para la comunicación a gran escala, también se ha asociado con Xinhua para crear un “Monitor de estadísticas de noticias”, que no es otra cosa que una gráfica que muestra con qué frecuencia se ha publicado un determinado artículo a nivel nacional y, otra vez y muy importante, en el extranjero, así como la frecuencia con la que recibe un “like” en WeChat o incluso cuantas veces se “comentó” un artículo en la red. Según la compañía, este esfuerzo habría ahorrado al Departamento de Estadísticas de Xinhua alrededor de 10 millones de RMB.

Aquí es importante recordar otra vez, como lo hicimos con el uso de algoritmos para mejorar el contenido, que el seguimiento de contenidos de otros medios para ver/analizar lo que se consume también se hace en occidente.

¿Y si quieren lanzar el mensaje para el extranjero? En este caso, Zhongke también ofrece una suite de creación de contenidos para audiencias fuera del país, una que ofrece guiones de vídeo generados por IA e instrucciones de filmación con un solo mensaje. Todo al alcance de un solo clic. Desde China Media Project llegaron a probaron uno de los programas que te permite crear presentadores virtuales que narran el mensaje creado con una selección de voces a la carta. Este fue su resultado en menos de 15 minutos de uso:

El miedo a informar para influir en la opinión

En la investigación de China Media Project detallan que los clientes de Zhongke que figuran en la lista, como iChongqing, del que hablábamos al inicio, son centros que responden a instrucciones emitidas por Xi Jinping en 2018, y son fundamentales para los últimos esfuerzos del país por reestructurar su aparato de comunicación exterior. Todos con "flotas" de presentadores hechos por IA enfocados tanto a dar noticias a nivel nacional, pero también con el objetivo de llegar internacionalmente con sus noticieros.

Lo cierto es que China nunca tuvo miedo de adoptar la tecnología socialmente. Es más, es públicamente conocido el registro de rostros por las calles para el crédito social chino, o incluso el uso de esos presentadores de IA desde 2018 (ver vídeo arriba).

Curiosamente, o quizás no tanto, Estados Unidos ya ha dado señales de preocupación en los últimos tiempos. Microsoft ha alertado sobre los movimientos de China por influir en el proceso electoral. Hace unos días y a través de un blog del equipo de inteligencia de la compañía de Redmon, explicaban que el impacto del contenido creado por IA en China era o debía ser menor, aunque podría cambiar, ya que “la creciente experimentación de China para aumentar los memes, videos y audio continuará, y puede resultar efectiva en el futuro”, contaban.

Al parecer, el gigante tecnológico hacía referencia al esfuerzo de China, a su juicio “pionero”, por tratar de ser el primer estado en influir en unas campañas extranjeras, en este caso, en las pasadas elecciones presidenciales de Taiwán el pasado mes de enero y, sobre todo, el temor a la cercanía de las elecciones estadounidenses. No sería el primero, por supuesto, ya que, por ejemplo, ocurrió con Rusia en las elecciones estadounidenses de 2016, y en cualquier caso, potencias extranjeras influyendo en elecciones siempre ha sucedido, incluyendo a Estados Unidos. La diferencia en este caso es que parece que China es la primera en utilizar la IA.

China Media Proyect finaliza su investigación dejando claro que, hasta ahora, nada implica directamente a compañías como Zhongke. Sin embargo, su software de creación de contenidos presenta una doble ventaja: es tremendamente accesible (gratis para cualquier usuario de WeChat que crea y comparta vídeos) y difícil de rastrear. Una herramienta que, no solo da pie a actores estatales, sino a cualquier potencial usuario de la red que busque difamar a los supuestos enemigos de China.

No es un problema de China, ni mucho menos de compañías como Zhongke, por supuesto. Las herramientas de compañías estadounidenses como las de OpenAI o de la propia Microsoft en materia de IA presentan los mismos desafíos para la seguridad y/o privacidad de los usuarios, o incluso de los usos que se puedan dar en una y otra dirección.

IA y opinión pública, IA y propaganda, IA y noticias, una mezcla destinada tarde o temprano a fusionarse. Si hace tan solo seis años fuimos espectadores de la trama que se reveló alrededor de Cambridge Analytica, la consultora británica que recopiló millones de datos de usuarios de Facebook sin su consentimiento para utilizarlos con un fin de propaganda política en Estados Unidos, la llegada de la IA al tablero internacional o a cualquier nueva campaña política se presenta como un nuevo desafío, el primero de, posiblemente, muchos.

China Media Proyect es un proyecto de investigación independiente que se especializa en el estudio del panorama de los medios chinos tanto dentro de la República Popular China como a nivel mundial, así como los medios especializados y el discurso político del Partido Comunista Chino (PCC). Con base en Estados Unidos y un centro de investigación en Taipei, Taiwán, el proyecto se lanzó por primera vez en 2004 como programa de investigación y becas en el Centro de Estudios de Periodismo y Medios de Comunicación de la Universidad de Hong Kong.

Imagen | Pixabay

En Xataka | Empresas de EEUU y China se dan la mano por un buen motivo: crear el primer estándar global de IA generativa

En Xataka: ChatGPT: qué es, cómo usarlo y qué puedes hacer con este chat de inteligencia artificial GPT



via Robótica e IA - Xataka https://ift.tt/J0ROj6D

martes, 23 de abril de 2024

No es Steve Jobs, es Mustafa Suleyman: el CEO de IA de Microsoft que se apunta a la tendencia de vestir “al estilo Jobs”

No es Steve Jobs, es Mustafa Suleyman: el CEO de IA de Microsoft que se apunta a la tendencia de vestir “al estilo Jobs”

Mustafa Suleyman es el nuevo hombre de moda del sector de la tecnología tras el órdago de Microsoft de crear una nueva división de inteligencia artificial para el consumidor.

Desde marzo de 2024, Suleyman, que ya cuenta con una amplia trayectoria al frente de DeepMind y la división de IA de Google, se encuentra al frente de una de las divisiones con mayor proyección de crecimiento de Microsoft. Esas expectativas parecen haber hecho mella en la forma de vestir del directivo, que en sus últimas apariciones públicas ha mostrado el mismo patrón de vestuario.

Este cambio parece indicar que Suleyman ha decidido optimizar su tiempo uniformando su vestuario diario, tal y como hacen Mark Zuckerberg, Barack Obama, Albert Einstein o Steve Jobs.

Mustafa Suleyman: ¿homenajea o copia a Steve Jobs?

Como ya contamos en este artículo, algunos millonarios y directivos de grandes corporaciones, han adoptado una especie de uniforme para vestir a diario. Por ese motivo, parece que siempre vayan vestidos con la misma ropa.

El motivo de esa “uniformación” del vestuario es reducir al máximo el número de decisiones triviales que se toman al cabo del día, para así poner toda la energía en las decisiones que realmente son importantes.

Puede parecer algo banal, pero un estudio de la Universidad de Minnesota reveló que cada día tomamos entre 10.000 y 40.000 decisiones, por lo que algo tan sencillo como no pararse a pensar qué ropa ponerse cada día reduce el estrés, ahorra tiempo e incluso dinero.

El nuevo CEO de Microsoft AI va un poco más allá en esta tendencia y no solo parece que ha optado por reducir el número de decisiones que toma al día, sino que incluso se ha ahorrado el estilismo a la hora de decidir cuál será su “uniforme” de diario, y ha elegido el “estilo Jobs”.

Suleyman dejó claro este cambio de tendencia cuando hace unos días se subió al escenario en una charla TED Talks sobre IA vestido con un jersey negro de cuello alto y unos tejanos azules. Una estética que trasladó a más de uno a los tiempos en los que Steve Jobs se subía al escenario a presentar los últimos iPhone, los MacBook de turno o el iPad.

Steve Jobs no eligió esa estética al azar. El estilismo que marcaría la imagen del fundador de Apple fue obra del popular diseñador japonés Issey Miyake, con quien mantenía una amistad personal. Según publica Forbes, Jobs compraba unas dos docenas de jerséis y vaqueros al año. El diseñador mantuvo el famoso jersey negro de cuello alto en su catálogo hasta 2011, cuando lo retiró discretamente en honor a su difunto amigo.

Los nuevos CEO quieren parecerse a Steve Jobs

Steve Jobs es un referente para toda la industria tecnológica, no sólo por los productos que puso en el mercado, sino por su forma de liderar Apple. Eso ha dejado una fuerte impronta en la nueva generación de altos directivos tecnológicos, que busca en Jobs a ese referente, hasta el punto de imitar su estética.

Nombres como Jesse Lyu, CEO de Rabbit que ha puesto en el mercado el llamativo Rabbit R1; o Imran Chaudhri, directivo de Humane AI Pin, han adoptado la estética de Steve Jobs en su atuendo basado en jersey negro, o con ligeras variaciones de él.

Mustafá Suleyman no parece haber adoptado solo el estilismo de Jobs, sino que también lo ha hecho en su puesta en escena, con unas mangas subidas hasta el antebrazo y unos movimientos relajados y reflexivos sobre el escenario, que recuerdan todavía más al fundador de Apple.

En Xataka | Los multimillonarios utilizan la misma ropa todos los días. No es por estética, es por productividad

Imagen | Wikimedia Commons (Ben Stanfield), TED Talks



via Robótica e IA - Xataka https://ift.tt/fksdM59

Microsoft lanza Phi-3, un pequeño modelo de IA que corre sin problemas en un dispositivo sorpresa: el iPhone 15

Microsoft lanza Phi-3, un pequeño modelo de IA que corre sin problemas en un dispositivo sorpresa: el iPhone 15

Los modelos de IA generativa como ChatGPT nos inundan, pero para usarlos la inmensa mayoría de usuarios acuden a la nube, donde potentes servidores procesan nuestras peticiones y realizan los complejos cálculos necesarios para respondernos como lo hacen. El problema es precisamente ese. Dependemos de la nube para usar los ChatGPTs del mundo, pero eso puede cambiar a corto plazo, y Microsoft es una de las que se ha posicionado para lograrlo.

Phi-3. Microsoft acaba de lanzar la nueva iteración de su modelo "ligero" de IA, llamado Phi-3 Mini. Se trata de la versión 3.8B, esto es, con 3.800 millones de parámetros: cuantos más usa un modelo, más complejo y potente puede ser. Normalmente reducir ese número de parámetros perjudica la precisión y capacidad del chatbot, pero Microsoft afirma que Phi-3 se comporta mejor que Phi-2 —presentado en diciembre de 2023— y puede proporcionar respuestas similares a como lo haría un modelo 10 veces más grande.

Más versiones a la vista. Este modelo es en realidad parte de una familia de modelos ligeros, y la firma se está preparando para publicar otros dos algo más grandes, Phi-3 Small (7B) y Phi-3 Medium (14B). Con ellos aumenta la capacidad y potencia, pero aún no se sabe qué capacidad real ofrecerán y cuál será el caso de uso perfecto para aprovecharlos.

Comparable a ChatGPT. Eric Boyd, vicepresidente de Microsoft Azure AI Platform, explicaba en The Verge que Phi-3 es tan capaz como LLMs como GPT-3.5, que precisamente es el que usamos gratuitamente cuando utilizamos ChatGPT. "Simplemente funciona en un factor de tamaño más pequeño", asegura Boyd.

Captura De Pantalla 2024 04 23 A Las 12 14 31 Captura De Pantalla 2024 04 23 A Las 12 14 31 Los ingenieros de Microsoft probaron Phi-3 Mini en un iPhone con un procesador A16 Bionic y lograron 12 tokens por segundo, una fluidez realmente destacable para un smartphone. Fuente: Microsoft (arXiv).

Un modelo para nuestro móvil (y más cosas). El objetivo de este modelo, como el de su predecesor, es demostrar que es factible ofrecer un modelo de IA lo suficientemente pequeño para poder ser ejecutado en el hardware de nuestros smartphones y que aún así el rendimiento y la experiencia de usuario sea bueno. Y no solo en ese hardware, porque también está habilitado para correr en pequeños servidores o en nuestros PCs y portátiles.

Funcionando en un iPhone. Como se ve en la imagen superior, extraída del estudio publicado por Microsoft, los investigadores probaron Phi-3 en un iPhone con un SoC Apple A16. Ese chip ha sido usado en los iPhone 14 Pro/Max, y también en los iPhone 15 y 15 Plus. Con ese hardware Phi-3 era capaz de generar texto a 12 tokens por segundo, una cifra que sin ser espectacular —sobre todo si queremos respuestas largas— es llamativa.

Cada vez más competencia. Gemini Nano fue el primer gran protagonista de esa hornada de "modelos de IA para móviles", pero pronto le siguieron tanto Phi-2 como modelos especializados como Google Gemma 2B y 7B, Claude 3 Haiku e incluso el recientemente lanzado Llama 3 8B de Meta.

Entrenado con "cuentos de niños". Una de las curiosidades del modelo es cómo ha sido entrenado. En Microsoft se inspiraron en la forma en la que los niños aprenden con los cuentos que se les leen antes de irse a dormir, y quisieron entrenar a Phi-3 con libros con palabras más simples y estructuras sencillas que hablaran de temas variados. Según Boyd "No hay suficientes libros infantiles, así que tomamos una lista de más de 3.000 palabras y pedimos a un LLM que creara "libros infantiles" para enseñar a Phi[-3]".

Herencia de sus antecesores. Mientras que Phi-1 se centraba en la programación y Phi-2 a razonar, Phi-3 hace ambas cosas mejor que sus predecesores. No puede competir con GPT-4, que está entrenado de forma mucho más ambiciosa, pero puede ser muy útil que por ejemplo quieran utilizarlo con subconjuntos de datos internos y que además consumen muchos menos recursos.

Ventajas y desventajas. Microsoft plantea este modelo como una alternativa a los grandes modelos actuales que son ambiciosos y más precisos, pero que también obligan a consumos energéticos importantes. Con Phi-3 una empresa o un particular podría ejecutar el local sus interacciones con el chatbot y que las respuestas, sin ser tan precisas o completas, sean suficientemente buenas para esos casos de uso. El ahorro en hardware y energía necesarios se une a su ventaja fundamental: no depender de la nube.

En Xataka | Meta, IBM y otras forman The AI Alliance. Su objetivo: defender el desarrollo de modelos de IA Open Source



via Robótica e IA - Xataka https://ift.tt/c1DulKi

lunes, 22 de abril de 2024

Los PCs con IA querían hacer resurgir las ventas en 2024. El problema es que mucha IA, lo que se dice, no tienen

Los PCs con IA querían hacer resurgir las ventas en 2024. El problema es que mucha IA, lo que se dice, no tienen

La IA ha generado expectativas enormes en toda la industria, y eso ha hecho que a casi todo el mundo le entren prisas por 1) no perder el tren y 2) ganar (mucho) dinero con ello.

Entre quienes se han visto afectados por esa tendencia están los fabricantes de PCs, que en este 2024 ya nos han empezado a inundar de ordenadores que según sus responsables ya están preparados para esta "nueva era de la IA". Y quizás no lo estén.

Por ahora lo que estamos viendo es que los precios de muchos equipos son sensiblemente superiores a los de sus antecesores que no llevaban esa etiqueta de estar preparados para tareas de IA.

En WSJ destacan por ejemplo el caso de Dell. Citan las palabras del CTO de su división de PC, Daryl Cromer, que explica que un portátil de 14" con chip Intel preparado para IA cuesta 1.339 dólares, mientras que el que tiene un chip no preparado cuesta 1.109 dólares. "Por su valor, será muy interesante", explica Cromer, que cree que la diferencia no es grande y esos PCs con IA sacarán cada vez más partido de esta tecnología.

Los CIO son los responsables de la toma de decisiones a nivel de infraestructura tecnológica, y por ejemplo Elizabeth Hackenson, de Schneider Electric, afirmaba que solo consideraría estos equipos para miembros de su equipo de IA porque por el momento "diría que son bastante costosos"

Su colega Jay Ferro, CIO en Clario, explicaba que es más adecuado esperar un poco para evitar los costes de ser "pioneros"en la adopción, aunque confiesa que "el atractivo de los PCs mejorados con IA es fuerte".

La cifra teórica mágica: 45 TOPS

La clave de poder aprovechar realmente las ventajas de la IA en un PC está en poder usarlas en local, y no depender como hasta ahora de la nube. Los fabricantes de chips como Intel, Qualcomm o AMD lo saben y llevan tiempo introduciendo chips que tratan de ofrecer esas prestaciones.

Sin embargo, sus propuestas actuales son algo modestas en ese apartado. El propio CEO de Intel, Pat Gelsinger, habló recientemente de sus futuros chips Lunar Lake, y destacó cómo en ellos la NPU será capaz de lograr rendimientos de 45 TOPS, considerados como requisito fundamental para tener algo así como "un ChatGPT en local".

Los TOPS (Tera Operations Per Second) son una unidad de medir el rendimiento del hardware de IA. En concreto, cuántos trillones de cálculos pueden realizar esos chips por segundo. Es una medida que se usa cada vez más para tener una idea de cómo de potente es cierta NPU (Neural Processing Unit), pero como ocurre con otros términos similares como los TFLOPs de las CPUs de los supercomputadores, no cuentan toda la historia y no hablan por ejemplo de consumos o eficiencia.

Pero por el momento los Meteor Lake (Intel Core Ultra), aunque ayudan, no llegan a tales cifras y alcanzan los 34 TOPS en los modelos más ambiciosos. Sus competidores de AMD, losRyzen PRO 8040, llegan a los 39 TOPS y se acercan a ese límite. Mientras, NVIDIA sigue centrándose en los centros de datos, cuando no sería mala idea prestar atención a PCs y portátiles.

Los que sí prometen superar esa barrera de los 45 TOPS son los chips Qualcomm Snapdragon X Elite presentados en octubre de 2023 y que comenzaremos a ver en equipos para el gran público muy pronto: se espera por ejemplo que los nuevos Surface de Microsoft los conviertan en protagonistas de una renovada apuesta por Windows en ARM. Hay, por cierto, otros desarrollos en este sentido, pero desde luego la de Qualcomm parece especialmente llamativa.

Por supuesto que unos y otros de 45 TOPS como esa primera gran barrera a superar no significa que esa sea una verdadera revolución. Teóricamente esa sería la potencia necesaria para correr modelos de IA en local y tener una especie de ChatGPT propio y que correría como una app más de nuestros equipos. 

Eso aliviaría desde luego la carga de la nube, que sin duda seguirá siendo importante para tareas de IA mucho más exigentes y ambiciosas. Pero si se cumple la promesa y la IA revoluciona nuestros PCs con este tipo de prestaciones, estaremos ante un potencial resurgimiento de ventas. 

Sin embargo, parece difícil pensar que ese resurgimiento del PC se produzca en 2024. La tercera parte del año está a punto de completarse sin avances significativos en este terreno, y aunque es cierto que Microsoft nos ha vendido su Copilot como gran protagonista de la experiencia en Windows, su popularidad es más bien nula. 

No se habla mucho de su potencial revolución fuera de nuestro país para quienes lo usan, pero es que ni en España ni en el resto de países de la UE se puede usar Copilot: la regulación de la UE frenó su despliegue en Europa y en estos momentos esa situación no se ha desatascado.

Las opciones que da Copilot tampoco parecen especialmente llamativas, y son un "más de lo mismo" respecto a lo que hemos visto en chatbots como ChatGPT: son capaces de escribir, resumir y crear textos, pero una vez más necesitan chips más potentes para poder compararse en fluidez y calidad de resultados a los modelos que corren en la nube. 

Los futuros chips y modelos harán mucho más potente ese uso de la IA en nuestros PCs, pero hoy por hoy es pronto para hablar de revoluciones en nuestros PC.

En Xataka | La tecnología de transistores que hará posible la IA general está en el horno. Y cambiará drásticamente el hardware



via Robótica e IA - Xataka https://ift.tt/Xc65VeQ