sábado, 27 de abril de 2024

Apple está llegando tan tarde la explosión de la IA que según Gurman está negociando con un aliado insospechado: OpenAI

Apple está llegando tan tarde la explosión de la IA que según Gurman está negociando con un aliado insospechado: OpenAI

Los rumores sugieren que iOS 18, la próxima versión del sistema operativo del iPhone, llegará con un montón de novedades relacionadas a la inteligencia artificial (IA). Ahora bien, no parece estar muy claro qué modelos de lenguaje utilizará Apple.

Hace poco más de dos meses trascendió que la compañía de Cupertino estaba negociando con Google para impulsar algunos de sus productos con la tecnología subyacente de Gemini. Esto debido a que sus propios modelos de IA tardarían en estar listos.

Inteligencia artificial, Apple, Google y OpenAI

Sí, Apple lleva años trabajando con algoritmos para dar vida a conceptos como el de la fotografía computacional, pero el sorpresivo auge de la IA de la mano de chatbots como ChatGPT se habría convertido en un problema. ¿La solución? Apoyarse en sus rivales.

Cuando todo parecía indicar que iOS 18 llegaría con elementos de Google en sus entradas, Mark Gurman ha llegado con una noticia inesperada: Apple está en conversaciones con OpenAI para impulsar algunas de las nuevas funciones de IA de iOS 18.

A todo esto, se suma la información de que el fabricante del iPhone ha pisado el acelerador y sus avances internos sobre IA parecen estar dando buenos resultados. Sin ir más lejos, esta semana investigadores de Apple lanzaron una familia de cuatro grandes modelos.

Iphone Iphone

Fuentes anónimas señalan que Apple y OpenAI ya habían estado conversando a principios de este año, pero que nuevamente están evaluando un posible acuerdo. Dicen, además, que Apple no ha tomado una decisión final sobre qué modelos utilizará.

Así que podríamos ver un iOS 18 con funciones impulsadas por tecnología de Google o de Apple. En cualquier caso, todo parece indicar que ciertos módulos internos del sistema funcionarán definitivamente con los modelos que Apple ha desarrollado internamente.

Todo esto se presenta a aproximadamente un mes y medio de la WWDC 2024, conferencia de desarrolladores donde debería aparecer la nueva versión de iOS, una versión que se presenta como una de las más importantes de la historia de la compañía.

Imágenes | Apple | OpenAI | Amjith S

En Xataka | No es Steve Jobs, es Mustafa Suleyman: el CEO de IA de Microsoft que se apunta a la tendencia de vestir “al estilo Jobs”



via Robótica e IA - Xataka https://ift.tt/hFXYnoJ

viernes, 26 de abril de 2024

Elon Musk anuncia el momento en el que su robot humanoide Optimus saldrá al mercado

Elon Musk no se conforma con llevar al hombre a Marte o con poner a personas con movilidad a mover cosas con el cerebro. El empresario también quiere desarrollar robots que puedan llevar a cabo labores tediosas y repetitivas para que, de este modo, el ser humano pueda dedicarse a otro tipo de labores. Y el primer paso para conseguirlo es Optimus , el humanoide de Tesla, que ya está relativamente cerca de comenzar a ser comercializado. O, al menos, eso es lo que dice Musk. De acuerdo con los planes del empresario, Tesla comenzará a vender unidades de Optimus a finales del próximo año 2025. Para ese momento, la compañía espera sea capaz de realizar «tareas útiles» en fábricas y otro tipo de empresas y que, con tiempo, termine convirtiéndose en uno de los activos más «valiosos» de la firma. ¿El precio de la unidad? Unos 20.000 dólares. Noticias Relacionadas estandar No Atlas, el robot contorsionista que parece salido de Star Wars y que va a fabricar coches Rodrigo Alonso estandar No Los cinco robots con forma humana más avanzados y curiosos: todo lo que saben hacer Rodrigo Alonso Tesla mostró la primera versión de Optimus a finales de 2021 y lo definió como un robot humanoide destinado al trabajo y a llevar a cabo tareas sencillas del hogar, como cargar cajas o regar las plantas. Luce una apariencia que recuerda a la de un humano; cuenta con brazos, piernas y dedos. Su altura es de 1,73 metros y su peso de 57 kilogramos. Siguiendo esta línea, en diciembre del pasado año, Tesla presentó la segunda generación del robot humanoide, que ya muestra mayor movilidad tanto en el cuello como en las manos e introduce mejoras como los sensores en los dedos, para manejar objetos más delicados con diferentes niveles de presión. Esta segunda generación también es capaz de caminar un 30 por ciento más rápido que el modelo anterior y dispone de un mejor equilibrio. Esto se debe a que Optimus Gen 2 es más ligero, ya que se ha reducido su peso en 10 kilogramos sin sacrificar sus funcionalidades. En este marco, Musk ha detallado que, actualmente, Optimus puede realizar «tareas en fábrica sencillas», que se están probando en el laboratorio, y que, según las previsiones de la empresa, el robot humanoide podrá realizar «tareas útiles» antes de finales de este año. «Optimus será más valioso que todo lo demás combinado», ha sentenciado el también propietario de la red social X, en la última llamada de resultados de Tesla. Esto se debe a que, según ha dicho, un robot humanoide «sensible» capaz de moverse en entornos reales y cambiantes y realizar las tareas que soliciten los usuarios. Igualmente, Musk también ha asegurado que Tesla está mejor posicionada que el resto de compañías tecnológicas dedicadas a la fabricación de robots humanoides. No obstante, no hay que olvidar que esta no es la única que está trabajando en la fabricación de dispositivos de estas características. Boston Dynamics, la creadora del perro robot Spot , sigue desarrollando su humanoide Atlas , que recientemente recibió una actualización importante y comenzó a lucir una nueva apariencia. Lo mismo ocurre con Figure AI, firma que he recibido una inversión millonaria de OpenAI y Microsoft y que está utilizando la tecnología de ChatGPT para hacer hablar y razonar a su humanoide Figure 01 .

via Tecnología https://ift.tt/AHRISyY

jueves, 25 de abril de 2024

Los chatbots de IA se inventan muchas de las respuestas: unos exinvestigadores del MIT tienen una particular solución

Los chatbots de IA se inventan muchas de las respuestas: unos exinvestigadores del MIT tienen una particular solución

Los chatbots se han convertido en uno de los ejes del auge de la inteligencia artificial (IA). Desde ChatGPT y Copilot hasta Claude Chat y Perplexity, estas herramientas son tendencia. Sin embargo, por mucho que nos entusiasmemos, no debemos confiar plenamente en sus respuestas.

Y, sino que se lo digan al abogado que recurrió a ChatGPT para salir victorioso en un juicio y descubrió que los documentos presentados ante el juez contenían decisiones judiciales, referencias y citas falsas. Como podemos ver, los chatbots tienen muchas virtudes, pero la fiabilidad no es una de ellas.

Una posible solución al problema de fiabilidad

Un estudio publicado por una compañía emergente fundada por exempleados de Google sugiere que los chatbots tienen una tasa de alucinaciones de al menos el 3%. Para muchos usuarios esto puede ser un problema menor, pero las cosas cambian cuando hablamos de usos profesionales.

Las herramientas impulsadas por grandes modelos de lenguaje (LLM) están llegando al mundo empresarial a través de soluciones como Copilot en Office 365. Ahora bien, si los empleados acaban manejando información errónea, esto podría acabar provocando más de un dolor de cabeza a la firma.

Cleanlab, una startup fundada por exinvestigadores del MIT acaba de lanzar su propia iniciativa para abordar este problema. Estamos hablando de una herramienta impulsada por lo que denominan Trustworthy Language Model (TLM), un enfoque que apunta a la fiabilidad de las respuestas.

TLM funciona como una “capa de confianza” para que los usuarios puedan saber qué tan fiable es la respuesta que acaban de recibir a través de un sistema de puntuación. Esta herramienta ha sido diseñada para que pueda funcionar de manera complementaria a modelos como GPT-3.5, GPT-4 y modelos personalizados de empresas.

Tlm Roi Graphic 1600px Bf7d2466a50432bcb98c8dbf4bdf3f30 Tlm Roi Graphic 1600px Bf7d2466a50432bcb98c8dbf4bdf3f30

El sistema envía nuestra pregunta a varios modelos y después analiza su devolución. La respuesta llegará acompañada con un puntaje que se situará entre 0 y 1. En una prueba sencilla en la que hemos preguntado la raíz cuadrada de nueve hemos recibido una respuesta correcta (3) con un puntaje de 0,885.

Tlm Herramienta Ia Tlm Herramienta Ia

Cleanlab señala que ChatGPT en su versión gratuita puede equivocarse en cosas muy simples. Al preguntar cuántas veces aparece la letra “N” en la palabra “enter”, el chatbot de OpenAI suele responder que la letra aparece dos veces. Lo hemos probado y efectivamente el chatbot responde erróneamente.

La startup imagina a su tecnología siendo útil en un amplio abanico de usos. Mencionan que podría ayudar a los chatbots de atención al cliente a ser más fiables. El chatbot funcionaría de manera automatizada, pero si una de las respuestas cae por debajo del umbral de fiabilidad, se podría solicitar la intervención de un humano.

Si eres un entusiasta de la inteligencia artificial puedes probar TLM a través de la web. La herramienta también está disponible a través de una API. Cabe señalar que la solución se encuentra disponible a través versiones gratuitas de código abierto y versiones de pago con características adicionales.

Imágenes | Cleanlab | Captura de pantalla

En Xataka | El ganador más inesperado de la primera gran batalla por la IA es también al que dábamos por muerto: Meta



via Robótica e IA - Xataka https://ift.tt/zne0BFL

El ganador más inesperado de la primera gran batalla por la IA es también al que dábamos por muerto: Meta

El ganador más inesperado de la primera gran batalla por la IA es también al que dábamos por muerto: Meta

Mark Zuckerberg estaba en modo cabezón. No paraba de apostar por el metaverso mientras el mundo parecía decirle a gritos que se dejara de historias. Lo que Meta había mostrado hasta el momento no tenía mucho que ver con lo que había prometido el fundador de Facebook. Era más bien una mala copia de Wii Sports.

Pero Zuckerberg seguía emperrado y gastando un dineral en un proyecto que hasta hizo que Facebook ya no fuera Facebook, sino Meta. Los meses pasaban, y 2022 fue un año terrible para la empresa, que se veía aparentemente dentro de una espiral que podía llevarla al desastre.

Las cosas no mejoraron en noviembre de 2022, cuando OpenAI sacudió al mundo con el lanzamiento de ChatGPT. Google y Microsoft apostaron rápidamente por la IA generativa, pero a Zuckerberg aquello no parecía importarle. Era febrero de 2023 y Meta parecía haber perdido bastante el rumbo. Bueno, el rumbo y 13.700 millones de dólares.

Pero hace justo un año, en abril de 2023, hubo un punto de inflexión. En las reuniones con marcas que contrataban publicidad con sus plataformas, Meta dejó de mencionar el metaverso y centró la prioridad en productos como Reels. Por entonces incluso se hablaba tímidamente de algunos esfuerzos en inteligencia artificial. Las cosas empezaban a cambiar aunque Zuckerberg afirmaba que "seguimos muy comprometidos" con el metaverso.

Lo cierto es que a partir de entonces el metaverso empezó a quedar relegado a un segundo plano mientras la IA iba ganando más y más fuerza en Meta. La empresa presentaba un nuevo chip de IA en mayo de 2023, y a ese lanzamiento le siguieron otros como el del modelo LIMA, MusicGen, o VoiceBox. Mientras, el máximo responsable de IA en Meta, Yann LeCun, afirmaba que la amenaza de la IA a la humanidad es "absurdamente ridícula".

En julio de 2023 la cosa se animaba aún más. Meta presentaba Llama 2, un LLM que se podía descargar y usar en local y que detonó una avalancha de versiones derivadas de sus prestaciones. Por fin teníamos un rival visible de ChatGPT por parte de este gigante, que además se ponía a trabajar inmediatamente en la siguiente versión.

La firma dio otro paso importante más en su apuesta por la IA en septiembre, cuando presentó su propio chatbot, Meta AI, y comenzó a integrarlo en versión preliminar en Instagram, Messenger o WhatsApp. Siguió presentando nuevos modelos como Emu Edit y Emu Video y se autoconvirtió en adalid de la IA Open Source aunque en realidad Llama 2 no es del todo Open Source.

Por fin, recién estrenado 2024, Mark Zuckerberg se apuntaba de lleno a la tendencia. La prioridad de Meta no era el metaverso, nos dijo, sino crear una AGI. "Nuestra visión a largo plazo es desarrollar la inteligencia (artificial) general, abrirla al Open Source de forma responsable y hacerla ampliamente disponible para que todos puedan beneficiarse", explicaba entonces.

Y tras ello, más y más anuncios. Llegaron Code Llama 70B y sobre todo, hace apenas una semana, Llama 3. El nuevo LLM es más ambicioso y potente que nunca, y representa la confirmación absoluta de un giro radical para una empresa a quien el metaverso le ha salido muy caro y que ha cambiado de estrategia para alegría de sus inversores.

La apuesta por la IA le sale muy bien a Meta

De hecho, las cosas en Meta difícilmente pueden ir mejor ahora mismo. Esta semana la compañía presentó sus resultados financieros, y las cifras fueron espectaculares: 27% más de ingresos y 117% más de beneficios respecto al mismo periodo del año pasado. El cambio de apuesta a la IA le ha salido realmente bien a los de Zuckerberg.

Captura De Pantalla 2024 04 25 A Las 10 46 27 Captura De Pantalla 2024 04 25 A Las 10 46 27 Hace exactamente un año las acciones de Meta estaban a 209,40 dólares. Ayer —y eso que bajaron sensiblemente— estaban a 493,50 dólares. La apuesta por la IA funciona, al menos para los mercados y los inversores. Fuente: Google Finance.

Durante una conferencia con los inversores Zuckerberg indicó que aunque los resultados estaban siendo positivos, convenía ser cautelosos: "los primeros indicios también son bastante positivos", destacaba, "pero construir la IA líder también será un reto mayor que las otras experiencias que hemos añadido a nuestras aplicaciones, y es probable que esto lleve varios años...".

Aún así, las cosas marchan para la apuesta IA de Meta. Según su CEO, el asistente Meta AI ha sido ya probado por "decenas de millones de personas" desde que se habilitó de forma masiva coincidiendo con el anuncio de Llama 3.

El futuro se presenta por tanto especialmente halagüeño para una Meta que ha logrado dar un giro estratégico para centrar su discurso en la IA. Lo ha hecho además sin renunciar ni mucho menos al metaverso. De hecho esa otra apuesta de Meta vuelve a ganar enteros gracias a las Vision Pro, que han hecho que el interés por el segmento de la realidad mixta aumente.

Ahora Meta quiere no ser solo líder en IA, sino convertirse en el Windows de la realidad virtual. Conseguir ambos objetivos es un reto espectacular, sobre todo porque no está nada claro que ni una ni otra apuesta salgan bien. La IA es más prometedora pero la competencia es gigantesca, y mientras el éxito de la realidad mixta parece seguir estando lejos.

Y sin embargo, Meta ya no parece estar ni mucho menos acabada. Parecía estarlo hace un año. Hay que ver cómo cambia el cuento.

Imagen | Davidelonghitano con Midjourney

En Xataka | Probamos el nuevo Meta AI con Llama 3: la verdadera oportunidad para aplastar a ChatGPT no está en la web



via Robótica e IA - Xataka https://ift.tt/Dpxb8wA

Apple publica sus nuevos y diminutos modelos LLM. Son una pista clara de que el iPhone tendrá su "AppleGPT"

Apple publica sus nuevos y diminutos modelos LLM. Son una pista clara de que el iPhone tendrá su

En Apple parecían haber perdido el tren de la IA, pero en los últimos meses han tratado de ponerse las pilas y poco a poco —y a base de dinero— han comenzado a compartir algunos de sus avances en este terreno. El último es especialmente interesante, porque apunta directamente a qué tipo de IA veremos en sus iPhone más temprano que tarde.

Los diminutos OpenELM. Investigadores de Apple han publicado OpenELM (Open-source Efficient Language Models), una familia de cuatro grandes modelos de lenguaje (LLM) que en realidad son diminutos si los comparamos con la mayoría de modelos en los que se basan ChatGPT o Gemini, por ejemplo. Apple también tiene un estudio de investigación que acompaña a la publicación de los modelos.

Cuatro "tamaños". Los modelos están disponibles en versiones 270M, 450M, 1,1B y 3B. El más pequeño, el de 270 millones de parámetros, es significativamente compacto, y por ejemplo el modelo Phi-3 Mini que Microsoft acaba de publicar tiene 3.8B parámetros, es decir, es 14 veces más grande en número de parámetros. Cada tamaño tiene dos versiones, una "pre-trained" (más general) y una "instruction-tuned" (más centrado en un propósito específico).

La eficiencia por bandera. Como su nombre indica, el objetivo en estos modelos es buscar la eficiencia, o lo que es lo mismo, poder ejecutarlos sin que el consumo de recursos sea gigantesco. Los modelos más grandes requieren más capacidad de cálculo para poder generar texto con fluidez, pero en OpenELM los requisitos son mucho más modestos, y eso apunta directamente a un objetivo.

El iPhone, a por su propio "AppleGPT". Ya hemos hablado en el pasado de los planes de Apple para crear su propio chatbot, al que hemos bautizado tentativamente como "AppleGPT". Es más que probable que no se llame así, pero lo que sí está claro es que se ejecutará en el iPhone (u otros dispositivos Apple) de forma local, sin necesitar la nube. Estos nuevos modelos son los suficientemente pequeños para ejecutarse sin aparentes problemas en los potentes chips de Apple, aunque también tienen una desventaja.

Más limitados. Cuando más pequeño es un modelo, más "generalista" y menos rico, preciso y específico puede ser. No podrán competir por tanto con modelos mucho más ambiciosos como GPT-4 o los usados en Gemini 1.5 Pro o Claude 3 Opus, pero es que estos modelos necesitan mucho más recursos para poder funcionar de forma fluida, de ahí que por ahora la nube sea la alternativa para usarlos.

Pruebas sintéticas. La variante de 450M es la que mejor se comporta comparativamente según las pruebas realizadas en el estudio de investigación, pero es superado por otros modelos Open Source en diversos escenarios. Quienes lo han probado lo califican como un modelo "sólido pero muy alineado", lo que quiere decir que sus respuestas son poco creativas y muy formales.

Y también pueden equivocarse. La propia Apple avisa de que estos modelos "se ponen a disposición sin ninguna garantía de seguridad. Por consiguiente, existe la posibilidad de que estos modelos produzcan resultados inexactos, perjudiciales, sesgados o censurables en respuesta a las indicaciones de los usuarios".

En Xataka | El plan de Apple para liderar en IA, más vivo que nunca: la compra de Darwin AI es prueba de ello



via Robótica e IA - Xataka https://ift.tt/9DQZIM0

miércoles, 24 de abril de 2024

Si la pregunta es "qué hacer con 10.000 euros" la respuesta puede ser comprar un perro robótico que escupe fuego

Si la pregunta es

Imagina lo siguiente: te levantas una mañana y tienes 10.000 euros extra en el banco. Te han llovido del cielo, libres de impuestos, pa'ti pa'siempre. ¿Qué haces con ellos? Pues a ver, 10.000 euros no van a sacar a nadie de pobre, pero un capricho sí que te puedes dar. Podrías ir al restaurante más caro del mundo unas cuentas veces, comprar una casa prefabricada en Amazon, invertirlos en alguna cosa o, mejor todavía, comprar un perro robótico que escupe fuego con un nombre tan molón como...

Thermonator. Bromas aparte, este producto existe, es completamente real y se vende en Estados Unidos. No es que se venda, es que cualquier persona lo puede comprar. Este peculiar perro robot que parece una racha de bajas de 'Call of Duty' se anunció el año pasado y ahora se ha puesto a la venta por 9.420 dólares, unos 8.840 euros al cambio. No es que sea barato, pero no es tan caro como el Spot de Boston Dynamics, que asciende a más de 60.000 euros la unidad. Y bueno, no escupe un enorme chorro de fuego letal a una distancia peligrosamente alta.

Quién está detrás. La compañía Throwflame, una empresa con sede en Ohio especializada, como su propio nombre indica, en lanzallamas. En Estados Unidos, los lanzallamas son herramientas no reguladas a nivel federal y la ATF (Agencia de Alcohol, Tabaco, Armas de Fuego y Explosivos) no las considera armas de fuego (curiosamente). Hasta se pueden usar sin licencia. Hay excepciones, como en California, donde sí se necesita una licencia para lanzallamas con un rango de tres metros o más; o Maryland, donde sí son considerados "dispositivos destructivos" y se pueden poseer con licencia.

Hablemos del perro. El Thermonator se trata de un robot cuadrúpedo que se puede controlar de forma remota. Tiene un peso de cerca de 12 kilos y dispone de mapeo LiDAR, navegación FPV (punto de vista), mirilla láser, capacidad para salvar obstáculos, una batería con hasta una hora de autonomía, WiFi y Bluetooth. No se especifica si puede funcionar de forma autónoma. Lo que sí se especifica es que, sobre su espalda, el perro monta un lanzallamas Arc.

Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame
Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame

Una máquina de escupir fuego. El lanzallamas Arc está hecho de aluminio y es capaz de disparar un chorro de fuego a un máximo de nueve metros de distancia con solo pulsar un botón. Funciona gracias a una batería con 45 minutos de autonomía y se puede colocar sobre un perro robot, un trípode o un rifle de asalto. Esto lo dicen así en la propia web de la compañía, por cierto. En cuanto al combustible, se puede usar tanto diésel como gasolina.

Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame
Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame Thermonator | Imagen: Throwflame

Para qué. Es una excelente pregunta. Según Throwflame, Thermonator está preparado para, y citamos textualmente, "control y prevención de incendios forestales", "gestión agrícola", "conservación ecológica", "eliminación de nieve y hielo" y "entretenimiento y efectos especiales". A nivel profesional puede tener varios usos interesantes, pero la realidad es que no es complicado imaginar un escenario en el que el uso del Thermonator a nivel usuario acaba regular. Un incendio forestal, por ejemplo.

Imágenes | Throwflame

En Xataka | Las flechas incendiarias son el arma favorita de las ficciones medievales. En realidad no servían para nada



via Robótica e IA - Xataka https://ift.tt/tdRyhZs

China se propuso en 2018 utilizar la IA para informar masivamente. Seis años después va muy por delante de Occidente

China se propuso en 2018 utilizar la IA para informar masivamente. Seis años después va muy por delante de Occidente

Año 2018, el presidente chino Xi Jinping identifica como una misión “necesaria” que el partido estatal del país “desarrolle sistemas de inteligencia artificial adecuados para los servicios gubernamentales”. De aquella frase han pasado seis años y millones de dólares, un esfuerzo titánico que ha convertido a China en pionera del uso de la IA como instrumento de comunicación de masas. De fondo, un conjunto de herramientas tan fácil de usar y acceder a ellas que plantea un cambio de paradigma de los medios de comunicación.

En diciembre del año pasado, un clip de vídeo revolucionó las redes en occidente. Lo lanzaba el británico Channel 1 y eran 21 minutos donde se nos mostraba un informativo rápido y dinámico, con diferentes tipos de coberturas en directo y, sobre todo, con una sorpresa final para el espectador: absolutamente todo lo que estábamos viendo era digital, es decir, el programa y sus presentadores no eran reales, los había generado una IA.

Channel 1 anunciaba así una especie de medio informativo “a la carta” del que sabremos más a lo largo del año y que se lanzará en algún momento de 2024, quizás algo más tarde. Además y según explicaron, la IA no solo estará vinculada a la creación de los presentadores, también se añadirá a las noticias para crear dramatizaciones o expandir material gráfico real con otro generado.

China y la IA al servicio de los medios gubernamentales

Esto que nos sonaba a distopía era algo que en China llevaban bastante tiempo desarrollando. De hecho, tras las mencionadas palabras de Xi Jinping, la Administración Estatal de Radio, Cine y Televisión impulsó el desarrollo de presentadores de IA, y en pocos años comenzaron a aparecer docenas de estaciones de televisión estatales con presentadores digitales.

David Bandurski, del grupo de investigación independiente basado en Hong Kong, China Media Project (CMP), ha hecho pública una investigación que cuenta la aparente sistematización de la iniciativa propagandística china.

Los periodistas cuentan que hoy existen alrededor de una veintena de medios con la IA como raíz. El primer paso dado en el país fue instar a todos los medios a utilizar los algoritmos para mejorar la calidad de su contenido. En la práctica, en espacios como el cuartel general de medios de People's Daily, el periódico oficial del Partido Comunista de China, la IA hace uso de big data para generar imágenes, texto y análisis “en cuestión de segundos”. También están desarrollando un “software de traducción asistida por IA” con el que perfeccionarán la “divulgación” en el extranjero. En este sentido, es importante recordar que utilizar algoritmos para mejorar el contenido del medio también se hace en occidente.

Enn el trabajo de CMP cuentan que en Chongqing (31 millones de habitantes), donde está la sede del periódico del partido estatal, hay una planta dedicada en su totalidad a la creación de artículos y vídeos en inglés sobre la propia urbe y China. Lo curioso es que no hay ni un solo presentador, ya que el moderador de la mayoría de las noticias es un avatar creado por IA para nutrir contenido de sus publicaciones.

También tienen sus propias aplicaciones -la de Chongqing, por ejemplo, se llama "Bridging News"- y sitios web o canales en YouTube.

De esa veintena de medios basados en IA la principal y más promocionada en China Daily es Zhongke Wenge. Ésta supone una pequeña revolución, ya que sus tecnologías permiten recortar los tiempos de producción en las empresas de noticias en hasta un 15%, mientras que sus herramientas de “toma de decisiones asistidas” permiten a las plataformas evaluar cómo se reciben sus historias y, muy importante (clave, diría), no solo a nivel nacional, también en el extranjero.

Según la propia Zhongke Wenge, recopilan información de medios de comunicación nacionales e internacionales, así como de personas destacadas, en nada menos que 42 idiomas diferentes, todo a través de su sistema de seguimiento multilingue.

Un presentador de IA Un presentador de IA Uno de los muchos presentadores de IA en China.

Hay más. Zhongke, apoyados en el big data para la comunicación a gran escala, también se ha asociado con Xinhua para crear un “Monitor de estadísticas de noticias”, que no es otra cosa que una gráfica que muestra con qué frecuencia se ha publicado un determinado artículo a nivel nacional y, otra vez y muy importante, en el extranjero, así como la frecuencia con la que recibe un “like” en WeChat o incluso cuantas veces se “comentó” un artículo en la red. Según la compañía, este esfuerzo habría ahorrado al Departamento de Estadísticas de Xinhua alrededor de 10 millones de RMB.

Aquí es importante recordar otra vez, como lo hicimos con el uso de algoritmos para mejorar el contenido, que el seguimiento de contenidos de otros medios para ver/analizar lo que se consume también se hace en occidente.

¿Y si quieren lanzar el mensaje para el extranjero? En este caso, Zhongke también ofrece una suite de creación de contenidos para audiencias fuera del país, una que ofrece guiones de vídeo generados por IA e instrucciones de filmación con un solo mensaje. Todo al alcance de un solo clic. Desde China Media Project llegaron a probaron uno de los programas que te permite crear presentadores virtuales que narran el mensaje creado con una selección de voces a la carta. Este fue su resultado en menos de 15 minutos de uso:

El miedo a informar para influir en la opinión

En la investigación de China Media Project detallan que los clientes de Zhongke que figuran en la lista, como iChongqing, del que hablábamos al inicio, son centros que responden a instrucciones emitidas por Xi Jinping en 2018, y son fundamentales para los últimos esfuerzos del país por reestructurar su aparato de comunicación exterior. Todos con "flotas" de presentadores hechos por IA enfocados tanto a dar noticias a nivel nacional, pero también con el objetivo de llegar internacionalmente con sus noticieros.

Lo cierto es que China nunca tuvo miedo de adoptar la tecnología socialmente. Es más, es públicamente conocido el registro de rostros por las calles para el crédito social chino, o incluso el uso de esos presentadores de IA desde 2018 (ver vídeo arriba).

Curiosamente, o quizás no tanto, Estados Unidos ya ha dado señales de preocupación en los últimos tiempos. Microsoft ha alertado sobre los movimientos de China por influir en el proceso electoral. Hace unos días y a través de un blog del equipo de inteligencia de la compañía de Redmon, explicaban que el impacto del contenido creado por IA en China era o debía ser menor, aunque podría cambiar, ya que “la creciente experimentación de China para aumentar los memes, videos y audio continuará, y puede resultar efectiva en el futuro”, contaban.

Al parecer, el gigante tecnológico hacía referencia al esfuerzo de China, a su juicio “pionero”, por tratar de ser el primer estado en influir en unas campañas extranjeras, en este caso, en las pasadas elecciones presidenciales de Taiwán el pasado mes de enero y, sobre todo, el temor a la cercanía de las elecciones estadounidenses. No sería el primero, por supuesto, ya que, por ejemplo, ocurrió con Rusia en las elecciones estadounidenses de 2016, y en cualquier caso, potencias extranjeras influyendo en elecciones siempre ha sucedido, incluyendo a Estados Unidos. La diferencia en este caso es que parece que China es la primera en utilizar la IA.

China Media Proyect finaliza su investigación dejando claro que, hasta ahora, nada implica directamente a compañías como Zhongke. Sin embargo, su software de creación de contenidos presenta una doble ventaja: es tremendamente accesible (gratis para cualquier usuario de WeChat que crea y comparta vídeos) y difícil de rastrear. Una herramienta que, no solo da pie a actores estatales, sino a cualquier potencial usuario de la red que busque difamar a los supuestos enemigos de China.

No es un problema de China, ni mucho menos de compañías como Zhongke, por supuesto. Las herramientas de compañías estadounidenses como las de OpenAI o de la propia Microsoft en materia de IA presentan los mismos desafíos para la seguridad y/o privacidad de los usuarios, o incluso de los usos que se puedan dar en una y otra dirección.

IA y opinión pública, IA y propaganda, IA y noticias, una mezcla destinada tarde o temprano a fusionarse. Si hace tan solo seis años fuimos espectadores de la trama que se reveló alrededor de Cambridge Analytica, la consultora británica que recopiló millones de datos de usuarios de Facebook sin su consentimiento para utilizarlos con un fin de propaganda política en Estados Unidos, la llegada de la IA al tablero internacional o a cualquier nueva campaña política se presenta como un nuevo desafío, el primero de, posiblemente, muchos.

China Media Proyect es un proyecto de investigación independiente que se especializa en el estudio del panorama de los medios chinos tanto dentro de la República Popular China como a nivel mundial, así como los medios especializados y el discurso político del Partido Comunista Chino (PCC). Con base en Estados Unidos y un centro de investigación en Taipei, Taiwán, el proyecto se lanzó por primera vez en 2004 como programa de investigación y becas en el Centro de Estudios de Periodismo y Medios de Comunicación de la Universidad de Hong Kong.

Imagen | Pixabay

En Xataka | Empresas de EEUU y China se dan la mano por un buen motivo: crear el primer estándar global de IA generativa

En Xataka: ChatGPT: qué es, cómo usarlo y qué puedes hacer con este chat de inteligencia artificial GPT



via Robótica e IA - Xataka https://ift.tt/J0ROj6D

martes, 23 de abril de 2024

No es Steve Jobs, es Mustafa Suleyman: el CEO de IA de Microsoft que se apunta a la tendencia de vestir “al estilo Jobs”

No es Steve Jobs, es Mustafa Suleyman: el CEO de IA de Microsoft que se apunta a la tendencia de vestir “al estilo Jobs”

Mustafa Suleyman es el nuevo hombre de moda del sector de la tecnología tras el órdago de Microsoft de crear una nueva división de inteligencia artificial para el consumidor.

Desde marzo de 2024, Suleyman, que ya cuenta con una amplia trayectoria al frente de DeepMind y la división de IA de Google, se encuentra al frente de una de las divisiones con mayor proyección de crecimiento de Microsoft. Esas expectativas parecen haber hecho mella en la forma de vestir del directivo, que en sus últimas apariciones públicas ha mostrado el mismo patrón de vestuario.

Este cambio parece indicar que Suleyman ha decidido optimizar su tiempo uniformando su vestuario diario, tal y como hacen Mark Zuckerberg, Barack Obama, Albert Einstein o Steve Jobs.

Mustafa Suleyman: ¿homenajea o copia a Steve Jobs?

Como ya contamos en este artículo, algunos millonarios y directivos de grandes corporaciones, han adoptado una especie de uniforme para vestir a diario. Por ese motivo, parece que siempre vayan vestidos con la misma ropa.

El motivo de esa “uniformación” del vestuario es reducir al máximo el número de decisiones triviales que se toman al cabo del día, para así poner toda la energía en las decisiones que realmente son importantes.

Puede parecer algo banal, pero un estudio de la Universidad de Minnesota reveló que cada día tomamos entre 10.000 y 40.000 decisiones, por lo que algo tan sencillo como no pararse a pensar qué ropa ponerse cada día reduce el estrés, ahorra tiempo e incluso dinero.

El nuevo CEO de Microsoft AI va un poco más allá en esta tendencia y no solo parece que ha optado por reducir el número de decisiones que toma al día, sino que incluso se ha ahorrado el estilismo a la hora de decidir cuál será su “uniforme” de diario, y ha elegido el “estilo Jobs”.

Suleyman dejó claro este cambio de tendencia cuando hace unos días se subió al escenario en una charla TED Talks sobre IA vestido con un jersey negro de cuello alto y unos tejanos azules. Una estética que trasladó a más de uno a los tiempos en los que Steve Jobs se subía al escenario a presentar los últimos iPhone, los MacBook de turno o el iPad.

Steve Jobs no eligió esa estética al azar. El estilismo que marcaría la imagen del fundador de Apple fue obra del popular diseñador japonés Issey Miyake, con quien mantenía una amistad personal. Según publica Forbes, Jobs compraba unas dos docenas de jerséis y vaqueros al año. El diseñador mantuvo el famoso jersey negro de cuello alto en su catálogo hasta 2011, cuando lo retiró discretamente en honor a su difunto amigo.

Los nuevos CEO quieren parecerse a Steve Jobs

Steve Jobs es un referente para toda la industria tecnológica, no sólo por los productos que puso en el mercado, sino por su forma de liderar Apple. Eso ha dejado una fuerte impronta en la nueva generación de altos directivos tecnológicos, que busca en Jobs a ese referente, hasta el punto de imitar su estética.

Nombres como Jesse Lyu, CEO de Rabbit que ha puesto en el mercado el llamativo Rabbit R1; o Imran Chaudhri, directivo de Humane AI Pin, han adoptado la estética de Steve Jobs en su atuendo basado en jersey negro, o con ligeras variaciones de él.

Mustafá Suleyman no parece haber adoptado solo el estilismo de Jobs, sino que también lo ha hecho en su puesta en escena, con unas mangas subidas hasta el antebrazo y unos movimientos relajados y reflexivos sobre el escenario, que recuerdan todavía más al fundador de Apple.

En Xataka | Los multimillonarios utilizan la misma ropa todos los días. No es por estética, es por productividad

Imagen | Wikimedia Commons (Ben Stanfield), TED Talks



via Robótica e IA - Xataka https://ift.tt/fksdM59

Microsoft lanza Phi-3, un pequeño modelo de IA que corre sin problemas en un dispositivo sorpresa: el iPhone 15

Microsoft lanza Phi-3, un pequeño modelo de IA que corre sin problemas en un dispositivo sorpresa: el iPhone 15

Los modelos de IA generativa como ChatGPT nos inundan, pero para usarlos la inmensa mayoría de usuarios acuden a la nube, donde potentes servidores procesan nuestras peticiones y realizan los complejos cálculos necesarios para respondernos como lo hacen. El problema es precisamente ese. Dependemos de la nube para usar los ChatGPTs del mundo, pero eso puede cambiar a corto plazo, y Microsoft es una de las que se ha posicionado para lograrlo.

Phi-3. Microsoft acaba de lanzar la nueva iteración de su modelo "ligero" de IA, llamado Phi-3 Mini. Se trata de la versión 3.8B, esto es, con 3.800 millones de parámetros: cuantos más usa un modelo, más complejo y potente puede ser. Normalmente reducir ese número de parámetros perjudica la precisión y capacidad del chatbot, pero Microsoft afirma que Phi-3 se comporta mejor que Phi-2 —presentado en diciembre de 2023— y puede proporcionar respuestas similares a como lo haría un modelo 10 veces más grande.

Más versiones a la vista. Este modelo es en realidad parte de una familia de modelos ligeros, y la firma se está preparando para publicar otros dos algo más grandes, Phi-3 Small (7B) y Phi-3 Medium (14B). Con ellos aumenta la capacidad y potencia, pero aún no se sabe qué capacidad real ofrecerán y cuál será el caso de uso perfecto para aprovecharlos.

Comparable a ChatGPT. Eric Boyd, vicepresidente de Microsoft Azure AI Platform, explicaba en The Verge que Phi-3 es tan capaz como LLMs como GPT-3.5, que precisamente es el que usamos gratuitamente cuando utilizamos ChatGPT. "Simplemente funciona en un factor de tamaño más pequeño", asegura Boyd.

Captura De Pantalla 2024 04 23 A Las 12 14 31 Captura De Pantalla 2024 04 23 A Las 12 14 31 Los ingenieros de Microsoft probaron Phi-3 Mini en un iPhone con un procesador A16 Bionic y lograron 12 tokens por segundo, una fluidez realmente destacable para un smartphone. Fuente: Microsoft (arXiv).

Un modelo para nuestro móvil (y más cosas). El objetivo de este modelo, como el de su predecesor, es demostrar que es factible ofrecer un modelo de IA lo suficientemente pequeño para poder ser ejecutado en el hardware de nuestros smartphones y que aún así el rendimiento y la experiencia de usuario sea bueno. Y no solo en ese hardware, porque también está habilitado para correr en pequeños servidores o en nuestros PCs y portátiles.

Funcionando en un iPhone. Como se ve en la imagen superior, extraída del estudio publicado por Microsoft, los investigadores probaron Phi-3 en un iPhone con un SoC Apple A16. Ese chip ha sido usado en los iPhone 14 Pro/Max, y también en los iPhone 15 y 15 Plus. Con ese hardware Phi-3 era capaz de generar texto a 12 tokens por segundo, una cifra que sin ser espectacular —sobre todo si queremos respuestas largas— es llamativa.

Cada vez más competencia. Gemini Nano fue el primer gran protagonista de esa hornada de "modelos de IA para móviles", pero pronto le siguieron tanto Phi-2 como modelos especializados como Google Gemma 2B y 7B, Claude 3 Haiku e incluso el recientemente lanzado Llama 3 8B de Meta.

Entrenado con "cuentos de niños". Una de las curiosidades del modelo es cómo ha sido entrenado. En Microsoft se inspiraron en la forma en la que los niños aprenden con los cuentos que se les leen antes de irse a dormir, y quisieron entrenar a Phi-3 con libros con palabras más simples y estructuras sencillas que hablaran de temas variados. Según Boyd "No hay suficientes libros infantiles, así que tomamos una lista de más de 3.000 palabras y pedimos a un LLM que creara "libros infantiles" para enseñar a Phi[-3]".

Herencia de sus antecesores. Mientras que Phi-1 se centraba en la programación y Phi-2 a razonar, Phi-3 hace ambas cosas mejor que sus predecesores. No puede competir con GPT-4, que está entrenado de forma mucho más ambiciosa, pero puede ser muy útil que por ejemplo quieran utilizarlo con subconjuntos de datos internos y que además consumen muchos menos recursos.

Ventajas y desventajas. Microsoft plantea este modelo como una alternativa a los grandes modelos actuales que son ambiciosos y más precisos, pero que también obligan a consumos energéticos importantes. Con Phi-3 una empresa o un particular podría ejecutar el local sus interacciones con el chatbot y que las respuestas, sin ser tan precisas o completas, sean suficientemente buenas para esos casos de uso. El ahorro en hardware y energía necesarios se une a su ventaja fundamental: no depender de la nube.

En Xataka | Meta, IBM y otras forman The AI Alliance. Su objetivo: defender el desarrollo de modelos de IA Open Source



via Robótica e IA - Xataka https://ift.tt/c1DulKi

lunes, 22 de abril de 2024

Los PCs con IA querían hacer resurgir las ventas en 2024. El problema es que mucha IA, lo que se dice, no tienen

Los PCs con IA querían hacer resurgir las ventas en 2024. El problema es que mucha IA, lo que se dice, no tienen

La IA ha generado expectativas enormes en toda la industria, y eso ha hecho que a casi todo el mundo le entren prisas por 1) no perder el tren y 2) ganar (mucho) dinero con ello.

Entre quienes se han visto afectados por esa tendencia están los fabricantes de PCs, que en este 2024 ya nos han empezado a inundar de ordenadores que según sus responsables ya están preparados para esta "nueva era de la IA". Y quizás no lo estén.

Por ahora lo que estamos viendo es que los precios de muchos equipos son sensiblemente superiores a los de sus antecesores que no llevaban esa etiqueta de estar preparados para tareas de IA.

En WSJ destacan por ejemplo el caso de Dell. Citan las palabras del CTO de su división de PC, Daryl Cromer, que explica que un portátil de 14" con chip Intel preparado para IA cuesta 1.339 dólares, mientras que el que tiene un chip no preparado cuesta 1.109 dólares. "Por su valor, será muy interesante", explica Cromer, que cree que la diferencia no es grande y esos PCs con IA sacarán cada vez más partido de esta tecnología.

Los CIO son los responsables de la toma de decisiones a nivel de infraestructura tecnológica, y por ejemplo Elizabeth Hackenson, de Schneider Electric, afirmaba que solo consideraría estos equipos para miembros de su equipo de IA porque por el momento "diría que son bastante costosos"

Su colega Jay Ferro, CIO en Clario, explicaba que es más adecuado esperar un poco para evitar los costes de ser "pioneros"en la adopción, aunque confiesa que "el atractivo de los PCs mejorados con IA es fuerte".

La cifra teórica mágica: 45 TOPS

La clave de poder aprovechar realmente las ventajas de la IA en un PC está en poder usarlas en local, y no depender como hasta ahora de la nube. Los fabricantes de chips como Intel, Qualcomm o AMD lo saben y llevan tiempo introduciendo chips que tratan de ofrecer esas prestaciones.

Sin embargo, sus propuestas actuales son algo modestas en ese apartado. El propio CEO de Intel, Pat Gelsinger, habló recientemente de sus futuros chips Lunar Lake, y destacó cómo en ellos la NPU será capaz de lograr rendimientos de 45 TOPS, considerados como requisito fundamental para tener algo así como "un ChatGPT en local".

Los TOPS (Tera Operations Per Second) son una unidad de medir el rendimiento del hardware de IA. En concreto, cuántos trillones de cálculos pueden realizar esos chips por segundo. Es una medida que se usa cada vez más para tener una idea de cómo de potente es cierta NPU (Neural Processing Unit), pero como ocurre con otros términos similares como los TFLOPs de las CPUs de los supercomputadores, no cuentan toda la historia y no hablan por ejemplo de consumos o eficiencia.

Pero por el momento los Meteor Lake (Intel Core Ultra), aunque ayudan, no llegan a tales cifras y alcanzan los 34 TOPS en los modelos más ambiciosos. Sus competidores de AMD, losRyzen PRO 8040, llegan a los 39 TOPS y se acercan a ese límite. Mientras, NVIDIA sigue centrándose en los centros de datos, cuando no sería mala idea prestar atención a PCs y portátiles.

Los que sí prometen superar esa barrera de los 45 TOPS son los chips Qualcomm Snapdragon X Elite presentados en octubre de 2023 y que comenzaremos a ver en equipos para el gran público muy pronto: se espera por ejemplo que los nuevos Surface de Microsoft los conviertan en protagonistas de una renovada apuesta por Windows en ARM. Hay, por cierto, otros desarrollos en este sentido, pero desde luego la de Qualcomm parece especialmente llamativa.

Por supuesto que unos y otros de 45 TOPS como esa primera gran barrera a superar no significa que esa sea una verdadera revolución. Teóricamente esa sería la potencia necesaria para correr modelos de IA en local y tener una especie de ChatGPT propio y que correría como una app más de nuestros equipos. 

Eso aliviaría desde luego la carga de la nube, que sin duda seguirá siendo importante para tareas de IA mucho más exigentes y ambiciosas. Pero si se cumple la promesa y la IA revoluciona nuestros PCs con este tipo de prestaciones, estaremos ante un potencial resurgimiento de ventas. 

Sin embargo, parece difícil pensar que ese resurgimiento del PC se produzca en 2024. La tercera parte del año está a punto de completarse sin avances significativos en este terreno, y aunque es cierto que Microsoft nos ha vendido su Copilot como gran protagonista de la experiencia en Windows, su popularidad es más bien nula. 

No se habla mucho de su potencial revolución fuera de nuestro país para quienes lo usan, pero es que ni en España ni en el resto de países de la UE se puede usar Copilot: la regulación de la UE frenó su despliegue en Europa y en estos momentos esa situación no se ha desatascado.

Las opciones que da Copilot tampoco parecen especialmente llamativas, y son un "más de lo mismo" respecto a lo que hemos visto en chatbots como ChatGPT: son capaces de escribir, resumir y crear textos, pero una vez más necesitan chips más potentes para poder compararse en fluidez y calidad de resultados a los modelos que corren en la nube. 

Los futuros chips y modelos harán mucho más potente ese uso de la IA en nuestros PCs, pero hoy por hoy es pronto para hablar de revoluciones en nuestros PC.

En Xataka | La tecnología de transistores que hará posible la IA general está en el horno. Y cambiará drásticamente el hardware



via Robótica e IA - Xataka https://ift.tt/Xc65VeQ

Alguien ha querido saber si GPT-4 era capaz de explotar vulnerabilidades. Lo hizo en el 87% de los casos

Alguien ha querido saber si GPT-4 era capaz de explotar vulnerabilidades. Lo hizo en el 87% de los casos

Un grupo de investigadores de la Universidad de Illinois en Urbana-Champaign (UIUC) han publicado un estudio que nos habla del potencial de GPT-4 como herramienta para ciberdelincuentes. Y ese potencial es enorme.

Vulnerabilidades a mí. Los LLM, apuntan estos investigadores, se han vuelto cada vez más potentes tanto para casos de uso benignos como para otros maliciosos. Para demostrar esto último recolectaron 15 vulnerabilidades de día uno incluyendo algunas calificadas de críticas. GPT-4 fue capaz de explotar el 87% de estas vulnerabilidades.

No esperéis hacerlo con ChatGPT. El espectacular rendimiento de GPT-4 fue comparado con el de versiones anteriores como GPT-3.5, la versión que por ejemplo se usa en ChatGPT, el chatbot de uso gratuito de OpenAI. Este modelo, como otros Open Source como Mistral-7B, Llama-2 Chat (70B), Mixtral-8X7B Instruct o OpenHermes-2.5, no lograron ni una sola de las vulnerabilidades del conjunto de pruebas.

Claude 3 y Gemini, incógnitas. Lo que no sabemos es si ese "potencial para el mal" de GPT-4 también lo tienen otros modelos recientes como Claude 3 o Gemini 1.5 Pro, que no fueron evaluados porque no tenían acceso a dichos modelos. Esperan probarlos en algún momento, pero es probable que los avances de ambos hayan hecho que puedan también servir para este tipo de propósitos.

Chatbots para el mal. Este mismo grupo de investigadores ya mostró en el pasado cómo los LLMs se pueden usar para automatizar ataques a sitios web, al menos en entornos aislados. Daniel Kang, uno de los miembros del equipo, explicó en The Register cómo GPT-4 puede "llevar a cabo de forma autónoma los pasos para realizar ciertos exploits que los escáneres de vulnerabilidades de código abierto no pueden encontrar".

Seguridad por oscuridad. Si no se ofrecían detalles adicionales sobre la vulnerabilidad, algo típico de los CVE (Common Vulnerabilities and Exposures), el rendimiento de GPT-4 bajaba del 87% al 7%, y eso planteaba la pregunta de si sería efectivo limitar los detalles disponibles en los CVE y no hacerlos públicos. Para Kang eso no sirve de mucho: "personalmente, no creo que la seguridad a través de la oscuridad sea sostenible, que parece ser la filosofía predominante entre los investigadores de seguridad".

Coste ínfimo. Los investigadores también quisieron comprobar cuál sería el coste a nivel de cómputo de usar un agente de IA con un modelo como GPT-4 para crear un exploit a partir de un CVE, y su conclusión fue muy reveladora. El coste medio por exploit fue de 8,80 dólares, casi tres veces menos de lo que teóricamente costaría contratar a un desarrollador humano del ámbito del pentesting para investigar esos CVEs y tratar de desarrollar un CVE durante 30 minutos.

Prompts secretos (por ahora). OpenAI, desarrolladores de GPT-4, pidieron a los responsables del estudio que no revelaran los prompt utilizados para el experimento. El agente de código usado tenía 91 líneas de código y un prompt de 1.056 tokens. La petición ha sido respetada, pero los investigadores indican en el estudio que se la ofrecerán a quienes la pidan. Lo que no está claro es que sigan funcionando: en OpenAI probablemente hayan usado esa información para pulir su chatbot y evitar este tipo de malos usos.

Imagen | Ed Hardie

En Xataka | El AI Pin ha llegado a sus primeros usuarios. Y sus conclusiones no son nada esperanzadoras



via Robótica e IA - Xataka https://ift.tt/3nBG2ow

sábado, 20 de abril de 2024

Probamos el nuevo Meta AI con Llama 3: la verdadera oportunidad para aplastar a ChatGPT no está en la web

Probamos el nuevo Meta AI con Llama 3: la verdadera oportunidad para aplastar a ChatGPT no está en la web

Tenemos nuevo chatbot en la oficina. Se trata de Meta.ai, el asistente que la empresa de Mark Zuckerberg lanzó en septiembre de 2023 y que ahora gana enteros por dos motivos.

El primero, por estar basado en el nuevo modelo fundacional, Llama 3. Y el segundo, porque podemos usarlo en la web: ya no dependemos de su integración en apps como WhatsApp, Instagram, Facebook o Messenger.

Precisamente eso es lo que hemos querido hacer en Xataka, y tras estas primeras horas de uso ya tenemos unas impresiones sobre lo que puede dar de sí. La sorpresa no es que se comporte bien —que lo hace— sino que su verdadero potencial no está precisamente en la web: eso es solo "el caramelo" de Meta para poder competir con el resto de sus rivales en su terreno. Su ventaja es otra.

Cómo probar el chatbot de Meta.ai

Teóricamente solo se puede usar Meta.ai si estamos en Estados Unidos o alguno de los 13 países adicionales que han sido incluidos en el lanzamiento inicial, a saber: Australia, Canada, Ghana, Jamaica, Malawi, Nueva Zelanda, Nigeria, Pakistán, Singapur, Sudáfrica, Uganda, Zambia, y Zimbabwe.

Captura De Pantalla 2024 04 19 A Las 9 14 41 Captura De Pantalla 2024 04 19 A Las 9 14 41

Además, el chatbot se puede usar solo en inglés. En Meta indican que próximamente estará disponible en otros idiomas y regiones, pero por el momento esas son las limitaciones geográficas y de idioma que impone el servicio.

La limitación geográfica se puede superar fácilmente con una VPN. Es un método que ya nos ha funcionado en otras ocasiones para probar chatbots que también se lanzaban inicialmente en países como EEUU, y eso vuelve a cumplirse en esta ocasión: al conectarse a la VPN basta elegir algún nodo en uno de los países que el chatbot está disponible, y listo.

Nosotros usamos una conexión que simulaba que estábamos en Atlanta, tras lo cual apareció una página de inicio que nos animaba a utilizar algunos de los ejemplos de uso del chatbot, y que también nos instaba a preguntarle cualquier cosa a la IA de Meta.

Un chatbot difícilmente diferenciable de sus rivales

En una barra lateral izquierda contamos con un historial de conversaciones, y sobre todo una opción para iniciar sesión en Facebook, algo imprescindible para poder acceder a otra de las opciones interesantes de esta plataforma: generar imágenes por IA.

Cham Cham

Nosotros nos centramos inicialmente en realidar algunas preguntas para evaluar sus respuestas. Tras comprobar que Meta.ai no habla español —el chatbot se disculpó y aseguró que en el futuro dispondría de ese soporte— preguntamos todo tipo de cosas.

Empezamos por algo de actualidad deportiva para saber cómo de actualizado estaba el chatbot. Contestó correctamente al preguntarle cuáles eran los próximos partidos de Champions League, mientras que al preguntarle cuál era el favorito para ganarla, dio respuestas basadas en un sitio de apuestas, una decisión curiosa pero ciertamente razonable.

Xataka Xataka

También quisimos saber si tenía algún tipo de información sobre Xataka. Una vez más, respondió con rapidez y precisión. La descripción fue precisa e incluso añadió un dato en el que otros chatbots se habían equivocado en el pasado, el año en el que se fundó, 2004.

Para añadir más cuestiones informativas —y de nuevo, deportivas— le pedimos a Meta.ai algo que hemos pedido a otros chatbots que hemos evaluado en el pasado: que nos crease una tabla con los países que más campeonatos y segundos puestos habían logrado en los mundiales de fútbol.

Mundiales Mundiales

Aquí el asistente de Meta hizo algo estupendo que ni siquiera le habíamos pedido: añadió los años en los que esos países ganaron los campeonatos que ganaron. No incluyó una columna más con los años de los subcampeonatos, y cuando se lo pedimos primero la creó aparte de la primera.

Sin embargo, tras pedirle que las uniera, realizó esa fusión para crear una tabla casi perfecta: había datos erróneos, como el subcampeonato de Francia de 1986 que no se produjo ese año sio en 2006. Luego volvió a lograrlo en el último Mundial de Qatar en 2022, pero ese dato sí lo indicó bien.

Edad Edad

También quisimos pedirle a Meta.ai que resolviera algunos pequeños problemas matemáticos. En el primero de ellos falló: le preguntamos lo siguiente (traducido al inglés):  "La suma de las edades de tres adultos es 60 años. El mayor de ellos tiene 6 años más que el menor. ¿Cuál es la edad de cada uno de ellos? Supongamos que un adulto tiene al menos 18 años". Respondió 18,24,24, lo que no era correcto.

Tanto ChatGPT como Claude 3 (en sus versiones gratuitas en la web) respondieron correctamente al problema. La solución es 18,18,24, y tras indicarle a Meta.ai que había cometido un error, volvió a intentarlo pero se equivocó de nuevo y dijo que la solución era 12,30,18. Señalado su error de nuevo, pidió la solución para entender qué estaba haciendo mal. Un detalle curioso que de nuevo demuestra que estos chatbots pueden acertar (o errar) pero sin saber cómo lo hacen.

Mac Mac

Meta.ai sí respondió correctamente a otros pequeños problemas matemáticos, y también quisimos preguntarle otras cuestiones, por ejemplo cómo instalar una unidad SSD en un Mac mini. Respondió de forma correcta aunque algo imprecisa en algunos puntos.

Por ejemplo, al indicar "Asegúrate de que el SSD es compatible con tu modelo de Mac mini", no especificó más, pero al incidir en ese apartado sí nos ayudó siendo más concreto porque necesitaba más información. Un detalle curioso fue la inclusión de las herramientas necesarias, y aquí al preguntarle por las fuentes —que no aparecían inicialmente— indicó que sus datos provenían de la la web de soporte de Apple —probablemente, la mejor fuente posible, punto a favor de Meta.ai—, de la que ofreció hasta cinco enlaces distintos.

Estas pruebas demostraron un comportamiento que parece equiparable al que ofrecen otros chatbots del mercado. Las respuestas se generan con gran velocidad —más que ChatGPT 3.5, a la par que Claude 3, por ejemplo—, y su corrección y precisión es notable, aunque como siempre es posible que el chatbot cometa errores o incluso invente datos.

Letra Letra

Para terminar, quisimos probar su toque creativo y ver cómo combinaba con otro modelo de IA especialmente llamativo en los últimos días. Quisimos crear una canción con Suno.ai y que la letra la compusiese Meta.ai. El tema, un pequeño guiño a esa guerra entre tabuladores y espacios que desde hace décadas mantienen los programadores.

El resultado, que podéis disfrutar en ese vídeo, es desde luego aparente, y demuestra que este tipo de sistemas puede acabar dando resultados sorprendentes. La cosa no paró ahí, y en Xataka quisimos probar un elemento más de este chatbot. Uno más creativo.

Generando imágenes con Meta.ai

Como comentábamos, otra de las opciones interesantes de este chatbot es que ofrece también la posibilidad de generar imágenes, algo que desde hace algún tiempo también permiten algunos de sus rivales. La opción hace necesario que iniciemos sesión en Meta (o creemos una cuenta), tras lo cual podremos crear imágenes con un "Imagine..." —el mismo comando que en Midjourney— aunque podemos usar otras fórmulas como "Generate an image" o "show a...".

Robotaxi Robotaxi

También realizamos alguna prueba de generación de imágenes. El motor integrado en este chatbot es desde luego decente, aunque tiene un filtro especialmente notable que hace que muchas imágenes no se generen. Incluso términos o prompts inofensivos parecen provocar problemas, y por ejemplo intentamos generar una imagen con un hipotético Real Madrid ganando la Champions League este año y se negó a generarla. 

German German A la izquierda, las imágenes generadas por Meta.ai. A la derecha, las imágenes extremadamente inclusivas que en su día generó Google con Gemini y que tanta polémica provocaron. Por cierto, atentos: Meta.ai integra una marca de agua visible en la esquina de las imágenes.

Lo que sí hizo por ejemplo fue generar "una pareja alemana de 1820", que es precisamente el mismo prompt que hizo que hace unas semanas Gemini generara imágenes excesivamente inclusivas. Eso le costó un buen disgusto reputacional a Google, pero al menos en Meta no parece existir ese problema, y las imágenes, sin ser perfectas, al menos son razonables en su aspecto final.

El generador de imágenes es por tanto interesante como potencial ayuda para generar imágenes, pero creemos que no está a la altura de modelos específicos más potentes como Midjourney. Aquí nota curiosa: Meta.ai incrusta una pequeña marca de agua visible en la esquina inferior izquierda de las imágenes. Es una medida a la que están acudiendo otros como Google, Adobe u OpenAI.

El verdadero as en la manga de Meta.ai son sus plataformas móviles

Tras estas pruebas ha quedado claro que el comportamiento de Meta.ai no es especialmente diferente —tampoco especialmente peor y mejor, al menos, en estas pruebas— al que ofrecen otros chatbots que compiten en este mercado, y eso deja claro que hoy por hoy estas propuestas son difícilmente distinguibles a nivel de resultados a no ser que se usen de forma muy intensiva y en segmentos muy específicos.

Meta Movil Meta Movil

Eso hace que para Meta la guerra por la IA se ponga tan al alcance (o no) como para el resto, pero aunque la disponibilidad de un chatbot en la web es interesante para quienes usan un PC, el verdadero potencial de este asistente está precisamente donde Meta lo introdujo inicialmente: en el móvil.

Es fácil entender por qué. El asistente de Meta.ai ya está disponible para algunos usuarios de Facebook, Instagram, Messenger o WhatsApp, pero poco a poco se irá desplegando en todo el mundo y estará disponible a tan solo un clic de estas aplicaciones.

Eso supone un oportunidad de crecimiento potencialmente enorme para la propuesta de Meta, que tiene a su alcance miles de millones de usuarios que aprovechan todas esas plataformas a diario —y de forma constante— y que podrían recurrir a Meta.ai por la sencilla razón de que está especialmente disponible en esas aplicaciones. No habría que salir de Instagram, Facebook o WhatsApp para preguntar cómo quedó ayer el Madrid o qué tiempo hará en Soria este fin de semana: podremos obtener respuesta a esas preguntas directamente desde esas plataformas.

Eso hace que junto al nuevo funcionamiento basado en Llama 3 estemos ante un fuerte candidato a chatbot de referencia. La batalla está servida, y cada vez parece más difícil prever quién la ganará.

En Xataka | Mark Zuckerberg anuncia el nuevo gran objetivo de Meta: crear una inteligencia artificial general



via Robótica e IA - Xataka https://ift.tt/TndV2c7