martes, 23 de abril de 2024

No es Steve Jobs, es Mustafa Suleyman: el CEO de IA de Microsoft que se apunta a la tendencia de vestir “al estilo Jobs”

No es Steve Jobs, es Mustafa Suleyman: el CEO de IA de Microsoft que se apunta a la tendencia de vestir “al estilo Jobs”

Mustafa Suleyman es el nuevo hombre de moda del sector de la tecnología tras el órdago de Microsoft de crear una nueva división de inteligencia artificial para el consumidor.

Desde marzo de 2024, Suleyman, que ya cuenta con una amplia trayectoria al frente de DeepMind y la división de IA de Google, se encuentra al frente de una de las divisiones con mayor proyección de crecimiento de Microsoft. Esas expectativas parecen haber hecho mella en la forma de vestir del directivo, que en sus últimas apariciones públicas ha mostrado el mismo patrón de vestuario.

Este cambio parece indicar que Suleyman ha decidido optimizar su tiempo uniformando su vestuario diario, tal y como hacen Mark Zuckerberg, Barack Obama, Albert Einstein o Steve Jobs.

Mustafa Suleyman: ¿homenajea o copia a Steve Jobs?

Como ya contamos en este artículo, algunos millonarios y directivos de grandes corporaciones, han adoptado una especie de uniforme para vestir a diario. Por ese motivo, parece que siempre vayan vestidos con la misma ropa.

El motivo de esa “uniformación” del vestuario es reducir al máximo el número de decisiones triviales que se toman al cabo del día, para así poner toda la energía en las decisiones que realmente son importantes.

Puede parecer algo banal, pero un estudio de la Universidad de Minnesota reveló que cada día tomamos entre 10.000 y 40.000 decisiones, por lo que algo tan sencillo como no pararse a pensar qué ropa ponerse cada día reduce el estrés, ahorra tiempo e incluso dinero.

El nuevo CEO de Microsoft AI va un poco más allá en esta tendencia y no solo parece que ha optado por reducir el número de decisiones que toma al día, sino que incluso se ha ahorrado el estilismo a la hora de decidir cuál será su “uniforme” de diario, y ha elegido el “estilo Jobs”.

Suleyman dejó claro este cambio de tendencia cuando hace unos días se subió al escenario en una charla TED Talks sobre IA vestido con un jersey negro de cuello alto y unos tejanos azules. Una estética que trasladó a más de uno a los tiempos en los que Steve Jobs se subía al escenario a presentar los últimos iPhone, los MacBook de turno o el iPad.

Steve Jobs no eligió esa estética al azar. El estilismo que marcaría la imagen del fundador de Apple fue obra del popular diseñador japonés Issey Miyake, con quien mantenía una amistad personal. Según publica Forbes, Jobs compraba unas dos docenas de jerséis y vaqueros al año. El diseñador mantuvo el famoso jersey negro de cuello alto en su catálogo hasta 2011, cuando lo retiró discretamente en honor a su difunto amigo.

Los nuevos CEO quieren parecerse a Steve Jobs

Steve Jobs es un referente para toda la industria tecnológica, no sólo por los productos que puso en el mercado, sino por su forma de liderar Apple. Eso ha dejado una fuerte impronta en la nueva generación de altos directivos tecnológicos, que busca en Jobs a ese referente, hasta el punto de imitar su estética.

Nombres como Jesse Lyu, CEO de Rabbit que ha puesto en el mercado el llamativo Rabbit R1; o Imran Chaudhri, directivo de Humane AI Pin, han adoptado la estética de Steve Jobs en su atuendo basado en jersey negro, o con ligeras variaciones de él.

Mustafá Suleyman no parece haber adoptado solo el estilismo de Jobs, sino que también lo ha hecho en su puesta en escena, con unas mangas subidas hasta el antebrazo y unos movimientos relajados y reflexivos sobre el escenario, que recuerdan todavía más al fundador de Apple.

En Xataka | Los multimillonarios utilizan la misma ropa todos los días. No es por estética, es por productividad

Imagen | Wikimedia Commons (Ben Stanfield), TED Talks



via Robótica e IA - Xataka https://ift.tt/fksdM59

Microsoft lanza Phi-3, un pequeño modelo de IA que corre sin problemas en un dispositivo sorpresa: el iPhone 15

Microsoft lanza Phi-3, un pequeño modelo de IA que corre sin problemas en un dispositivo sorpresa: el iPhone 15

Los modelos de IA generativa como ChatGPT nos inundan, pero para usarlos la inmensa mayoría de usuarios acuden a la nube, donde potentes servidores procesan nuestras peticiones y realizan los complejos cálculos necesarios para respondernos como lo hacen. El problema es precisamente ese. Dependemos de la nube para usar los ChatGPTs del mundo, pero eso puede cambiar a corto plazo, y Microsoft es una de las que se ha posicionado para lograrlo.

Phi-3. Microsoft acaba de lanzar la nueva iteración de su modelo "ligero" de IA, llamado Phi-3 Mini. Se trata de la versión 3.8B, esto es, con 3.800 millones de parámetros: cuantos más usa un modelo, más complejo y potente puede ser. Normalmente reducir ese número de parámetros perjudica la precisión y capacidad del chatbot, pero Microsoft afirma que Phi-3 se comporta mejor que Phi-2 —presentado en diciembre de 2023— y puede proporcionar respuestas similares a como lo haría un modelo 10 veces más grande.

Más versiones a la vista. Este modelo es en realidad parte de una familia de modelos ligeros, y la firma se está preparando para publicar otros dos algo más grandes, Phi-3 Small (7B) y Phi-3 Medium (14B). Con ellos aumenta la capacidad y potencia, pero aún no se sabe qué capacidad real ofrecerán y cuál será el caso de uso perfecto para aprovecharlos.

Comparable a ChatGPT. Eric Boyd, vicepresidente de Microsoft Azure AI Platform, explicaba en The Verge que Phi-3 es tan capaz como LLMs como GPT-3.5, que precisamente es el que usamos gratuitamente cuando utilizamos ChatGPT. "Simplemente funciona en un factor de tamaño más pequeño", asegura Boyd.

Captura De Pantalla 2024 04 23 A Las 12 14 31 Captura De Pantalla 2024 04 23 A Las 12 14 31 Los ingenieros de Microsoft probaron Phi-3 Mini en un iPhone con un procesador A16 Bionic y lograron 12 tokens por segundo, una fluidez realmente destacable para un smartphone. Fuente: Microsoft (arXiv).

Un modelo para nuestro móvil (y más cosas). El objetivo de este modelo, como el de su predecesor, es demostrar que es factible ofrecer un modelo de IA lo suficientemente pequeño para poder ser ejecutado en el hardware de nuestros smartphones y que aún así el rendimiento y la experiencia de usuario sea bueno. Y no solo en ese hardware, porque también está habilitado para correr en pequeños servidores o en nuestros PCs y portátiles.

Funcionando en un iPhone. Como se ve en la imagen superior, extraída del estudio publicado por Microsoft, los investigadores probaron Phi-3 en un iPhone con un SoC Apple A16. Ese chip ha sido usado en los iPhone 14 Pro/Max, y también en los iPhone 15 y 15 Plus. Con ese hardware Phi-3 era capaz de generar texto a 12 tokens por segundo, una cifra que sin ser espectacular —sobre todo si queremos respuestas largas— es llamativa.

Cada vez más competencia. Gemini Nano fue el primer gran protagonista de esa hornada de "modelos de IA para móviles", pero pronto le siguieron tanto Phi-2 como modelos especializados como Google Gemma 2B y 7B, Claude 3 Haiku e incluso el recientemente lanzado Llama 3 8B de Meta.

Entrenado con "cuentos de niños". Una de las curiosidades del modelo es cómo ha sido entrenado. En Microsoft se inspiraron en la forma en la que los niños aprenden con los cuentos que se les leen antes de irse a dormir, y quisieron entrenar a Phi-3 con libros con palabras más simples y estructuras sencillas que hablaran de temas variados. Según Boyd "No hay suficientes libros infantiles, así que tomamos una lista de más de 3.000 palabras y pedimos a un LLM que creara "libros infantiles" para enseñar a Phi[-3]".

Herencia de sus antecesores. Mientras que Phi-1 se centraba en la programación y Phi-2 a razonar, Phi-3 hace ambas cosas mejor que sus predecesores. No puede competir con GPT-4, que está entrenado de forma mucho más ambiciosa, pero puede ser muy útil que por ejemplo quieran utilizarlo con subconjuntos de datos internos y que además consumen muchos menos recursos.

Ventajas y desventajas. Microsoft plantea este modelo como una alternativa a los grandes modelos actuales que son ambiciosos y más precisos, pero que también obligan a consumos energéticos importantes. Con Phi-3 una empresa o un particular podría ejecutar el local sus interacciones con el chatbot y que las respuestas, sin ser tan precisas o completas, sean suficientemente buenas para esos casos de uso. El ahorro en hardware y energía necesarios se une a su ventaja fundamental: no depender de la nube.

En Xataka | Meta, IBM y otras forman The AI Alliance. Su objetivo: defender el desarrollo de modelos de IA Open Source



via Robótica e IA - Xataka https://ift.tt/c1DulKi

lunes, 22 de abril de 2024

Los PCs con IA querían hacer resurgir las ventas en 2024. El problema es que mucha IA, lo que se dice, no tienen

Los PCs con IA querían hacer resurgir las ventas en 2024. El problema es que mucha IA, lo que se dice, no tienen

La IA ha generado expectativas enormes en toda la industria, y eso ha hecho que a casi todo el mundo le entren prisas por 1) no perder el tren y 2) ganar (mucho) dinero con ello.

Entre quienes se han visto afectados por esa tendencia están los fabricantes de PCs, que en este 2024 ya nos han empezado a inundar de ordenadores que según sus responsables ya están preparados para esta "nueva era de la IA". Y quizás no lo estén.

Por ahora lo que estamos viendo es que los precios de muchos equipos son sensiblemente superiores a los de sus antecesores que no llevaban esa etiqueta de estar preparados para tareas de IA.

En WSJ destacan por ejemplo el caso de Dell. Citan las palabras del CTO de su división de PC, Daryl Cromer, que explica que un portátil de 14" con chip Intel preparado para IA cuesta 1.339 dólares, mientras que el que tiene un chip no preparado cuesta 1.109 dólares. "Por su valor, será muy interesante", explica Cromer, que cree que la diferencia no es grande y esos PCs con IA sacarán cada vez más partido de esta tecnología.

Los CIO son los responsables de la toma de decisiones a nivel de infraestructura tecnológica, y por ejemplo Elizabeth Hackenson, de Schneider Electric, afirmaba que solo consideraría estos equipos para miembros de su equipo de IA porque por el momento "diría que son bastante costosos"

Su colega Jay Ferro, CIO en Clario, explicaba que es más adecuado esperar un poco para evitar los costes de ser "pioneros"en la adopción, aunque confiesa que "el atractivo de los PCs mejorados con IA es fuerte".

La cifra teórica mágica: 45 TOPS

La clave de poder aprovechar realmente las ventajas de la IA en un PC está en poder usarlas en local, y no depender como hasta ahora de la nube. Los fabricantes de chips como Intel, Qualcomm o AMD lo saben y llevan tiempo introduciendo chips que tratan de ofrecer esas prestaciones.

Sin embargo, sus propuestas actuales son algo modestas en ese apartado. El propio CEO de Intel, Pat Gelsinger, habló recientemente de sus futuros chips Lunar Lake, y destacó cómo en ellos la NPU será capaz de lograr rendimientos de 45 TOPS, considerados como requisito fundamental para tener algo así como "un ChatGPT en local".

Los TOPS (Tera Operations Per Second) son una unidad de medir el rendimiento del hardware de IA. En concreto, cuántos trillones de cálculos pueden realizar esos chips por segundo. Es una medida que se usa cada vez más para tener una idea de cómo de potente es cierta NPU (Neural Processing Unit), pero como ocurre con otros términos similares como los TFLOPs de las CPUs de los supercomputadores, no cuentan toda la historia y no hablan por ejemplo de consumos o eficiencia.

Pero por el momento los Meteor Lake (Intel Core Ultra), aunque ayudan, no llegan a tales cifras y alcanzan los 34 TOPS en los modelos más ambiciosos. Sus competidores de AMD, losRyzen PRO 8040, llegan a los 39 TOPS y se acercan a ese límite. Mientras, NVIDIA sigue centrándose en los centros de datos, cuando no sería mala idea prestar atención a PCs y portátiles.

Los que sí prometen superar esa barrera de los 45 TOPS son los chips Qualcomm Snapdragon X Elite presentados en octubre de 2023 y que comenzaremos a ver en equipos para el gran público muy pronto: se espera por ejemplo que los nuevos Surface de Microsoft los conviertan en protagonistas de una renovada apuesta por Windows en ARM. Hay, por cierto, otros desarrollos en este sentido, pero desde luego la de Qualcomm parece especialmente llamativa.

Por supuesto que unos y otros de 45 TOPS como esa primera gran barrera a superar no significa que esa sea una verdadera revolución. Teóricamente esa sería la potencia necesaria para correr modelos de IA en local y tener una especie de ChatGPT propio y que correría como una app más de nuestros equipos. 

Eso aliviaría desde luego la carga de la nube, que sin duda seguirá siendo importante para tareas de IA mucho más exigentes y ambiciosas. Pero si se cumple la promesa y la IA revoluciona nuestros PCs con este tipo de prestaciones, estaremos ante un potencial resurgimiento de ventas. 

Sin embargo, parece difícil pensar que ese resurgimiento del PC se produzca en 2024. La tercera parte del año está a punto de completarse sin avances significativos en este terreno, y aunque es cierto que Microsoft nos ha vendido su Copilot como gran protagonista de la experiencia en Windows, su popularidad es más bien nula. 

No se habla mucho de su potencial revolución fuera de nuestro país para quienes lo usan, pero es que ni en España ni en el resto de países de la UE se puede usar Copilot: la regulación de la UE frenó su despliegue en Europa y en estos momentos esa situación no se ha desatascado.

Las opciones que da Copilot tampoco parecen especialmente llamativas, y son un "más de lo mismo" respecto a lo que hemos visto en chatbots como ChatGPT: son capaces de escribir, resumir y crear textos, pero una vez más necesitan chips más potentes para poder compararse en fluidez y calidad de resultados a los modelos que corren en la nube. 

Los futuros chips y modelos harán mucho más potente ese uso de la IA en nuestros PCs, pero hoy por hoy es pronto para hablar de revoluciones en nuestros PC.

En Xataka | La tecnología de transistores que hará posible la IA general está en el horno. Y cambiará drásticamente el hardware



via Robótica e IA - Xataka https://ift.tt/Xc65VeQ

Alguien ha querido saber si GPT-4 era capaz de explotar vulnerabilidades. Lo hizo en el 87% de los casos

Alguien ha querido saber si GPT-4 era capaz de explotar vulnerabilidades. Lo hizo en el 87% de los casos

Un grupo de investigadores de la Universidad de Illinois en Urbana-Champaign (UIUC) han publicado un estudio que nos habla del potencial de GPT-4 como herramienta para ciberdelincuentes. Y ese potencial es enorme.

Vulnerabilidades a mí. Los LLM, apuntan estos investigadores, se han vuelto cada vez más potentes tanto para casos de uso benignos como para otros maliciosos. Para demostrar esto último recolectaron 15 vulnerabilidades de día uno incluyendo algunas calificadas de críticas. GPT-4 fue capaz de explotar el 87% de estas vulnerabilidades.

No esperéis hacerlo con ChatGPT. El espectacular rendimiento de GPT-4 fue comparado con el de versiones anteriores como GPT-3.5, la versión que por ejemplo se usa en ChatGPT, el chatbot de uso gratuito de OpenAI. Este modelo, como otros Open Source como Mistral-7B, Llama-2 Chat (70B), Mixtral-8X7B Instruct o OpenHermes-2.5, no lograron ni una sola de las vulnerabilidades del conjunto de pruebas.

Claude 3 y Gemini, incógnitas. Lo que no sabemos es si ese "potencial para el mal" de GPT-4 también lo tienen otros modelos recientes como Claude 3 o Gemini 1.5 Pro, que no fueron evaluados porque no tenían acceso a dichos modelos. Esperan probarlos en algún momento, pero es probable que los avances de ambos hayan hecho que puedan también servir para este tipo de propósitos.

Chatbots para el mal. Este mismo grupo de investigadores ya mostró en el pasado cómo los LLMs se pueden usar para automatizar ataques a sitios web, al menos en entornos aislados. Daniel Kang, uno de los miembros del equipo, explicó en The Register cómo GPT-4 puede "llevar a cabo de forma autónoma los pasos para realizar ciertos exploits que los escáneres de vulnerabilidades de código abierto no pueden encontrar".

Seguridad por oscuridad. Si no se ofrecían detalles adicionales sobre la vulnerabilidad, algo típico de los CVE (Common Vulnerabilities and Exposures), el rendimiento de GPT-4 bajaba del 87% al 7%, y eso planteaba la pregunta de si sería efectivo limitar los detalles disponibles en los CVE y no hacerlos públicos. Para Kang eso no sirve de mucho: "personalmente, no creo que la seguridad a través de la oscuridad sea sostenible, que parece ser la filosofía predominante entre los investigadores de seguridad".

Coste ínfimo. Los investigadores también quisieron comprobar cuál sería el coste a nivel de cómputo de usar un agente de IA con un modelo como GPT-4 para crear un exploit a partir de un CVE, y su conclusión fue muy reveladora. El coste medio por exploit fue de 8,80 dólares, casi tres veces menos de lo que teóricamente costaría contratar a un desarrollador humano del ámbito del pentesting para investigar esos CVEs y tratar de desarrollar un CVE durante 30 minutos.

Prompts secretos (por ahora). OpenAI, desarrolladores de GPT-4, pidieron a los responsables del estudio que no revelaran los prompt utilizados para el experimento. El agente de código usado tenía 91 líneas de código y un prompt de 1.056 tokens. La petición ha sido respetada, pero los investigadores indican en el estudio que se la ofrecerán a quienes la pidan. Lo que no está claro es que sigan funcionando: en OpenAI probablemente hayan usado esa información para pulir su chatbot y evitar este tipo de malos usos.

Imagen | Ed Hardie

En Xataka | El AI Pin ha llegado a sus primeros usuarios. Y sus conclusiones no son nada esperanzadoras



via Robótica e IA - Xataka https://ift.tt/3nBG2ow

sábado, 20 de abril de 2024

Probamos el nuevo Meta AI con Llama 3: la verdadera oportunidad para aplastar a ChatGPT no está en la web

Probamos el nuevo Meta AI con Llama 3: la verdadera oportunidad para aplastar a ChatGPT no está en la web

Tenemos nuevo chatbot en la oficina. Se trata de Meta.ai, el asistente que la empresa de Mark Zuckerberg lanzó en septiembre de 2023 y que ahora gana enteros por dos motivos.

El primero, por estar basado en el nuevo modelo fundacional, Llama 3. Y el segundo, porque podemos usarlo en la web: ya no dependemos de su integración en apps como WhatsApp, Instagram, Facebook o Messenger.

Precisamente eso es lo que hemos querido hacer en Xataka, y tras estas primeras horas de uso ya tenemos unas impresiones sobre lo que puede dar de sí. La sorpresa no es que se comporte bien —que lo hace— sino que su verdadero potencial no está precisamente en la web: eso es solo "el caramelo" de Meta para poder competir con el resto de sus rivales en su terreno. Su ventaja es otra.

Cómo probar el chatbot de Meta.ai

Teóricamente solo se puede usar Meta.ai si estamos en Estados Unidos o alguno de los 13 países adicionales que han sido incluidos en el lanzamiento inicial, a saber: Australia, Canada, Ghana, Jamaica, Malawi, Nueva Zelanda, Nigeria, Pakistán, Singapur, Sudáfrica, Uganda, Zambia, y Zimbabwe.

Captura De Pantalla 2024 04 19 A Las 9 14 41 Captura De Pantalla 2024 04 19 A Las 9 14 41

Además, el chatbot se puede usar solo en inglés. En Meta indican que próximamente estará disponible en otros idiomas y regiones, pero por el momento esas son las limitaciones geográficas y de idioma que impone el servicio.

La limitación geográfica se puede superar fácilmente con una VPN. Es un método que ya nos ha funcionado en otras ocasiones para probar chatbots que también se lanzaban inicialmente en países como EEUU, y eso vuelve a cumplirse en esta ocasión: al conectarse a la VPN basta elegir algún nodo en uno de los países que el chatbot está disponible, y listo.

Nosotros usamos una conexión que simulaba que estábamos en Atlanta, tras lo cual apareció una página de inicio que nos animaba a utilizar algunos de los ejemplos de uso del chatbot, y que también nos instaba a preguntarle cualquier cosa a la IA de Meta.

Un chatbot difícilmente diferenciable de sus rivales

En una barra lateral izquierda contamos con un historial de conversaciones, y sobre todo una opción para iniciar sesión en Facebook, algo imprescindible para poder acceder a otra de las opciones interesantes de esta plataforma: generar imágenes por IA.

Cham Cham

Nosotros nos centramos inicialmente en realidar algunas preguntas para evaluar sus respuestas. Tras comprobar que Meta.ai no habla español —el chatbot se disculpó y aseguró que en el futuro dispondría de ese soporte— preguntamos todo tipo de cosas.

Empezamos por algo de actualidad deportiva para saber cómo de actualizado estaba el chatbot. Contestó correctamente al preguntarle cuáles eran los próximos partidos de Champions League, mientras que al preguntarle cuál era el favorito para ganarla, dio respuestas basadas en un sitio de apuestas, una decisión curiosa pero ciertamente razonable.

Xataka Xataka

También quisimos saber si tenía algún tipo de información sobre Xataka. Una vez más, respondió con rapidez y precisión. La descripción fue precisa e incluso añadió un dato en el que otros chatbots se habían equivocado en el pasado, el año en el que se fundó, 2004.

Para añadir más cuestiones informativas —y de nuevo, deportivas— le pedimos a Meta.ai algo que hemos pedido a otros chatbots que hemos evaluado en el pasado: que nos crease una tabla con los países que más campeonatos y segundos puestos habían logrado en los mundiales de fútbol.

Mundiales Mundiales

Aquí el asistente de Meta hizo algo estupendo que ni siquiera le habíamos pedido: añadió los años en los que esos países ganaron los campeonatos que ganaron. No incluyó una columna más con los años de los subcampeonatos, y cuando se lo pedimos primero la creó aparte de la primera.

Sin embargo, tras pedirle que las uniera, realizó esa fusión para crear una tabla casi perfecta: había datos erróneos, como el subcampeonato de Francia de 1986 que no se produjo ese año sio en 2006. Luego volvió a lograrlo en el último Mundial de Qatar en 2022, pero ese dato sí lo indicó bien.

Edad Edad

También quisimos pedirle a Meta.ai que resolviera algunos pequeños problemas matemáticos. En el primero de ellos falló: le preguntamos lo siguiente (traducido al inglés):  "La suma de las edades de tres adultos es 60 años. El mayor de ellos tiene 6 años más que el menor. ¿Cuál es la edad de cada uno de ellos? Supongamos que un adulto tiene al menos 18 años". Respondió 18,24,24, lo que no era correcto.

Tanto ChatGPT como Claude 3 (en sus versiones gratuitas en la web) respondieron correctamente al problema. La solución es 18,18,24, y tras indicarle a Meta.ai que había cometido un error, volvió a intentarlo pero se equivocó de nuevo y dijo que la solución era 12,30,18. Señalado su error de nuevo, pidió la solución para entender qué estaba haciendo mal. Un detalle curioso que de nuevo demuestra que estos chatbots pueden acertar (o errar) pero sin saber cómo lo hacen.

Mac Mac

Meta.ai sí respondió correctamente a otros pequeños problemas matemáticos, y también quisimos preguntarle otras cuestiones, por ejemplo cómo instalar una unidad SSD en un Mac mini. Respondió de forma correcta aunque algo imprecisa en algunos puntos.

Por ejemplo, al indicar "Asegúrate de que el SSD es compatible con tu modelo de Mac mini", no especificó más, pero al incidir en ese apartado sí nos ayudó siendo más concreto porque necesitaba más información. Un detalle curioso fue la inclusión de las herramientas necesarias, y aquí al preguntarle por las fuentes —que no aparecían inicialmente— indicó que sus datos provenían de la la web de soporte de Apple —probablemente, la mejor fuente posible, punto a favor de Meta.ai—, de la que ofreció hasta cinco enlaces distintos.

Estas pruebas demostraron un comportamiento que parece equiparable al que ofrecen otros chatbots del mercado. Las respuestas se generan con gran velocidad —más que ChatGPT 3.5, a la par que Claude 3, por ejemplo—, y su corrección y precisión es notable, aunque como siempre es posible que el chatbot cometa errores o incluso invente datos.

Letra Letra

Para terminar, quisimos probar su toque creativo y ver cómo combinaba con otro modelo de IA especialmente llamativo en los últimos días. Quisimos crear una canción con Suno.ai y que la letra la compusiese Meta.ai. El tema, un pequeño guiño a esa guerra entre tabuladores y espacios que desde hace décadas mantienen los programadores.

El resultado, que podéis disfrutar en ese vídeo, es desde luego aparente, y demuestra que este tipo de sistemas puede acabar dando resultados sorprendentes. La cosa no paró ahí, y en Xataka quisimos probar un elemento más de este chatbot. Uno más creativo.

Generando imágenes con Meta.ai

Como comentábamos, otra de las opciones interesantes de este chatbot es que ofrece también la posibilidad de generar imágenes, algo que desde hace algún tiempo también permiten algunos de sus rivales. La opción hace necesario que iniciemos sesión en Meta (o creemos una cuenta), tras lo cual podremos crear imágenes con un "Imagine..." —el mismo comando que en Midjourney— aunque podemos usar otras fórmulas como "Generate an image" o "show a...".

Robotaxi Robotaxi

También realizamos alguna prueba de generación de imágenes. El motor integrado en este chatbot es desde luego decente, aunque tiene un filtro especialmente notable que hace que muchas imágenes no se generen. Incluso términos o prompts inofensivos parecen provocar problemas, y por ejemplo intentamos generar una imagen con un hipotético Real Madrid ganando la Champions League este año y se negó a generarla. 

German German A la izquierda, las imágenes generadas por Meta.ai. A la derecha, las imágenes extremadamente inclusivas que en su día generó Google con Gemini y que tanta polémica provocaron. Por cierto, atentos: Meta.ai integra una marca de agua visible en la esquina de las imágenes.

Lo que sí hizo por ejemplo fue generar "una pareja alemana de 1820", que es precisamente el mismo prompt que hizo que hace unas semanas Gemini generara imágenes excesivamente inclusivas. Eso le costó un buen disgusto reputacional a Google, pero al menos en Meta no parece existir ese problema, y las imágenes, sin ser perfectas, al menos son razonables en su aspecto final.

El generador de imágenes es por tanto interesante como potencial ayuda para generar imágenes, pero creemos que no está a la altura de modelos específicos más potentes como Midjourney. Aquí nota curiosa: Meta.ai incrusta una pequeña marca de agua visible en la esquina inferior izquierda de las imágenes. Es una medida a la que están acudiendo otros como Google, Adobe u OpenAI.

El verdadero as en la manga de Meta.ai son sus plataformas móviles

Tras estas pruebas ha quedado claro que el comportamiento de Meta.ai no es especialmente diferente —tampoco especialmente peor y mejor, al menos, en estas pruebas— al que ofrecen otros chatbots que compiten en este mercado, y eso deja claro que hoy por hoy estas propuestas son difícilmente distinguibles a nivel de resultados a no ser que se usen de forma muy intensiva y en segmentos muy específicos.

Meta Movil Meta Movil

Eso hace que para Meta la guerra por la IA se ponga tan al alcance (o no) como para el resto, pero aunque la disponibilidad de un chatbot en la web es interesante para quienes usan un PC, el verdadero potencial de este asistente está precisamente donde Meta lo introdujo inicialmente: en el móvil.

Es fácil entender por qué. El asistente de Meta.ai ya está disponible para algunos usuarios de Facebook, Instagram, Messenger o WhatsApp, pero poco a poco se irá desplegando en todo el mundo y estará disponible a tan solo un clic de estas aplicaciones.

Eso supone un oportunidad de crecimiento potencialmente enorme para la propuesta de Meta, que tiene a su alcance miles de millones de usuarios que aprovechan todas esas plataformas a diario —y de forma constante— y que podrían recurrir a Meta.ai por la sencilla razón de que está especialmente disponible en esas aplicaciones. No habría que salir de Instagram, Facebook o WhatsApp para preguntar cómo quedó ayer el Madrid o qué tiempo hará en Soria este fin de semana: podremos obtener respuesta a esas preguntas directamente desde esas plataformas.

Eso hace que junto al nuevo funcionamiento basado en Llama 3 estemos ante un fuerte candidato a chatbot de referencia. La batalla está servida, y cada vez parece más difícil prever quién la ganará.

En Xataka | Mark Zuckerberg anuncia el nuevo gran objetivo de Meta: crear una inteligencia artificial general



via Robótica e IA - Xataka https://ift.tt/TndV2c7

La tapada de la IA es Meta. Lleva más de una década apostando por ella y ya tiene mucho más que LLaMa

La tapada de la IA es Meta. Lleva más de una década apostando por ella y ya tiene mucho más que LLaMa

Meta es conocida por ser la propietaria de Facebook, Instagram y WhatsApp. También por su insistencia con el Metaverso, las Meta Quest 3 o las Ray-Ban Meta. Pero más allá de los entusiastas de la tecnología no es tan conocida en torno a la Inteligencia Artificial como pueden serlo OpenAI o Google. Lo cual no significa, como sabemos los que seguimos de cerca esta industria, que Meta no esté ahí.

De hecho está ahí desde hace mucho. Todo empezó con FAIR (Fundamental AI Research, anteriormente Facebook AI Research), un laboratorio creado en 2013 con sede en Menlo Park —donde las oficinas centrales de la empresa—, Londres y Nueva York.

Su objetivo, estudiar la ciencia de datos, el aprendizaje automático y la IA, parecían ajenos a lo que era en ese momento la empresa: básicamente Facebook, en menor medida Instagram. Muy poco más. Ni siquiera se había hecho todavía la compra de WhatsApp.

Hoy FAIR es Meta AI y sus avances han ido muchísimo más allá. Uno de sus hitos fue la predicción de la estructura tridimensional de 600 millones de proteínas en 2022. Y ahora, visitando la sede parisina de Meta AI, hemos podido hablar con algunos de sus líderes sobre el pasado, presente y futuro de esta ambición de la empresa.

Tecnología dura, rentabilidades futuras

Pineau Pineau

"Muchas de las aplicaciones de IA que vemos hoy día en productos de Meta son el resultado de años de investigación y desarrollo", explica Joëlle Pineau, VP de AI Research en Meta. ¿Dónde se reflejan? Principalmente, en las funciones de clasificación y de recomendación, así como en algunas funciones concretas de las aplicaciones. Por ejemplo, en el recorte de imágenes.

El camino de Meta en este campo ha sido curioso. Sus ingresos vienen de la publicidad, la cual maximizan manteniendo a sus usuarios el máximo tiempo posible dentro de sus aplicaciones. Sus esfuerzos en IA, en cambio, vienen de más de una década atrás, y la apuesta se hizo por tecnología dura con la incógnita de qué resultados llegarían, y cómo podrían rentabilizarlos.

A veces esos resultados no llegan tanto en forma de funciones evidentes para el usuario, sino en mejoras sutiles, incluso que deciden lo que no va a ver el usuario. Como la eliminación automática del contenido inapropiado, según explicó Pineau: más del 95% del contenido relacionado con discursos de odio y el contenido violento es retirado de la plataforma antes de que una sola persona pueda verlo. Dentro o fuera de la empresa. Es decir, ya sean usuarios o ya sean moderadores. Un logro que tiene ver con el uso de IA en los algoritmos para este fin.

Algo parecido a lo que consigue en el terreno publicitario: mostrar anuncios mucho más interesantes para cada usuario y reducir la exposición a publicidad que no le resulta atractiva.

Y en esa misma línea está algo recién anunciado por la empresa: el etiquetado de contenido como "hecho con IA", ya sea audio, vídeo o imagen, si se detectan indicadores de ello o si el propio usuario lo ha revelado. De esa forma se busca reducir los posibles casos de manipulación y aumentar la transparencia. Esto comenzará a hacerse efectivo en mayo.

En los resultados más tangibles, unas recién llegadas, las Ray-Ban Meta, que pudimos probar recientemente. Son un producto que podríamos definir como estratégico para Meta: no solo son una forma de capilarizar su presencia en el mundo, sino también la mejor forma de conseguir que el mundo utilice Meta AI, su chatbot.

Siri, Alexa o el asistente de Google tienen sus productos físicos listos para que el usuario los invoque. Meta necesita sus propios productos físicos para no tener que confiar en que el usuario abra una aplicación para ello, con la fricción que eso supone.

Las Ray-Ban Meta tienen en Estados Unidos su mejor terreno, porque es en el país norteamericano donde se le puede sacar más partido a este asistente. Por ejemplo, usando estas gafas como unos auriculares mediante los que hablar con él e ir haciéndole consultas sobre lo que necesitamos en cada momento. Fuera de allí su asistente está mucho más limitado, de momento.

Y si hablamos de algo presente en una aplicación, no en un dispositivo, tenemos el modelo Segment Anything, que permite separar objetos de las imágenes con un solo toque. Es algo orientado en el lado comercial a incluirlo como función en redes como Instagram para la creación de stickers o la edición de imágenes. Tiene su propia demo pública.

El trabajo acumulado en Meta AI no se limita a funciones, evidentes o sutiles, para sus plataformas: mantiene la apuesta por la investigación abierta mediante la construcción y liberación pública de modelos, papers y código relacionado.

PyTorch, una biblioteca de desarrollo de Machine Learning, comenzó como un proyecto interno para acelerar la productividad de sus investigadores. Hoy no solo está liberada sino que ha sido una pieza clave en el desarrollo de muchas herramientas relevantes en la IA, desde el Autopilot de Tesla hasta ChatGPT.

En los últimos años, lógicamente la apuesta principal ha sido la IA generativa. Pineau considera que la unificación organizativa en Meta ha sido esencial para este salto, reuniendo al equipo de IA fundamental y al de IA generativa, para lograr "un traspaso mucho más rápido de la investigación a la producción".

Sobre el futuro al que se dirige el laboratorio, la VP dice que la empresa trabaja en la creación de "modelos mundiales" más avanzados que puedan capturar y entender información multimodal para hacer razonamientos y planificaciones de forma más precisa.

Aquí se contextualiza bien la presencia de dispositivos de realidad aumentad y virtual, como las Meta Quest 3, dentro de la empresa: no es solo cuestión de vender un producto y crear una plataforma en su interior, sino de aprovechar los desarrollos de comprensión del entorno en doble dirección.

Estos esfuerzos, un año y medio después de la llegada de ChatGPT, que agitó el avispero como nadie antes para despertar el interés de la IA por parte de la población general, podríamos asumir que tienen que ver con la cacareada llegada de la AGI (Inteligencia Artificial General, la cual logrará superar al ser humano en todas las facetas del conocimiento).

En absoluto. O al menos no con ese término.

Lecun Lecun

Yann LeCun, vicepresidente y científico jefe de IA en Meta, es un peso pesado en la empresa y en el sector. Ganó el Premio Turing en 2018 y es uno de los creadores de la tecnología de compresión de imagen DjVu, entre otros hitos. Y en su opinión, el término 'AGI' carece de sentido, pues la inteligencia humana es "muy especializada".

Además, considera que la IA y el aprendizaje automático han conseguido mejoras significativas, pero siguen sin poder igualar la rapidez y la eficiencia del aprendizaje humano. Incluso del aprendizaje animal.

En su opinión, la tecnología aún está lejos de poder replicar la inteligencia humana "ni la de un gato doméstico", subrayando las carencias en comprensión, memoria persistente, planificación y razonamiento. Y de paso, echando por tierra las predicciones que sugieren un logro inminente en este campo. Un exceso de optimismo.

¿De qué depende que la IA siga progresando para ir venciendo esos límites? "Lo que ha traído el progreso es lo que se llama aprendizaje auto-supervisado", dice LeCun. Uno que permita a los sistemas entender y manipular el lenguaje de forma más eficiente, además de conseguir que puedan modelar y entender el mundo físico, un desafío especialmente complejo.

La arquitectura de IA que propone para ello es una arquitectura "orientada a objetivos", que se enfoque en lograr esos objetivos mientras cumple con límites tanto éticos como de seguridad. De esa forma se diferenciaría de los modelos generativos tanto en enfoque como en aplicación.

Considera LeCun que a día de hoy las máquinas no aprenden cómo funciona el mundo, haciendo el símil con un niño de diez años: es capaz de aprender a limpiar la mesa o poner el lavavajillas en minutos, pero a día de hoy los robots no pueden igualar eso. O con un chico de 17 años: puede aprender a conducir con veinte horas de práctica, pero hoy seguimos sin tener conducción autónoma de nivel 5 sin límites. Ahí entra la paradoja de Moravec: la IA hace fácil lo que para un ser humano es difícil, y viceversa.

Lecun 2 Lecun 2 Yann LeCun durante la entrevista, portando unas Ray-Ban Meta. Imagen: Xataka.

De momento, el futuro de Meta AI confesado por sus propios portavoces es ser accesible en todas las plataformas, incluida WhatsApp, tanto para personas como para negocios.

Algo similar a lo del asistente en las Ray-Ban Meta: no esperar a que sea invocado en un dispositivo ajeno. Tampoco en una aplicación específica, sino en las que los usuarios ya utilizan, un plan anunciado en septiembre que todavía está por llegar al público general.

Y el futuro de los asistentes virtuales, según su opinión, pasa por ser de código abierto y constituir una infraestructura compartida (como el Internet actual) para convertirse en un repositorio de todo el conocimiento y la cultura humanas. Y subraya la importancia del código abierto: "la cultura y el conocimiento no pueden ser controlados por unas pocas empresas en la costa oeste estadounidense o en China".

Hablando de modelos y volviendo al presente: LLaMA, el LLM de Meta, acaba de anunciar su versión 3, está disponible en formato web, tiene versiones 8B y 70B (8.000 y 70.000 millones de parámetros respectivamente), y está por venir una versión 400B multimodal con 400.000 millones de parámetros.

Y además, seguramente su mayor hecho diferencial: es de código abierto, o casi. Porque se parece mucho al usar una licencia comunitaria, pero sin ser completamente Open Source. No obstante, ya marca una importante diferencia frente a sus competidores.

¿Por qué en código abierto? Porque de esa forma consiguen posicionarse de forma más atractiva para los grandes investigadores. No dejaron pasar desde Meta la ocasión de señalar que les resulta impactante pensar que un reducido número de personas en una sala cerrada, sin rendir cuentas ni mostrar transparencia, siempre harán lo correcto.

Remata la entrevista LeCun sin esquivar una pregunta sobre el futuro del Metaverso, toda vez que su espectacular inversión está como mínimo en el aire al menos de cara a la opinión popular.

"Al igual que la IA, es una inversión a largo plazo. La pregunta es: ¿llegaremos a donde queremos llegar antes de quedarnos sin dinero? De eso se trata básicamente la investigación. O antes de que la gente que espera esos resultados pierda la paciencia. La empresa y Zuckerberg han sido muy claros en que tanto la estrategia en realidad aumentada, virtual y mixta como el metaverso son juegos a largo plazo, como una nueva plataforma que necesita ser inventada. Y eso requiere una gran inversión a muy largo plazo en cosas como... pequeños chips que puedan procesar, que quepan en la patilla de unas gafas y que no agoten la batería en diez minutos".

Quizás entonces es que asumimos que el anuncio del Metaverso sonaba a revolución inminente, pero necesitaba algo más de tiempo. Como la AGI. O como quiera llamarla LeCun.

Imagen destacada | Xataka

En Xataka | Se acabó el "muévete rápido y rompe cosas": las Big Tech se han vuelto empresas muy cautas y muy aburridas



via Robótica e IA - Xataka https://ift.tt/qaLSyln

viernes, 19 de abril de 2024

La OMS ahora tiene su propio chatbot de IA: está desactualizado y no funciona si no tiene acceso a la cámara

La OMS ahora tiene su propio chatbot de IA: está desactualizado y no funciona si no tiene acceso a la cámara

La Organización Mundial de la Salud (OMS) tiene su propio chatbot conversacional. El organismo dependiente de las Naciones Unidas lanzó a principios de este mes a SARAH, una “promotora de salud digital” disponible las 24 horas del día, los 7 días de la semana en ocho idiomas.

“Utiliza la IA generativa para ayudarte a llevar una vida más saludable”, dice la OMS en la página de presentación de su más reciente novedad digital. Sin embargo, como recoge Bloomberg, estamos frente a un prototipo desactualizado que, en ocasiones, puede acabar alucinando.

SARAH, el chatbot de IA de la OMS

La misión de SARAH es ofrecer consejos e información sobre un amplio abanico de temas de salud. Podemos preguntarle cómo abordar el estrés o cómo alimentarnos mejor. En caso de esto último, también tenemos la posibilidad de añadir contexto para recibir una respuesta más precisa.

En la página del chatbot podemos leer que ha sido entrenado “con la información más reciente de la Organización Mundial de la Salud y socios de confianza”. Sin embargo, abajo y en letra pequeña, la OMS señala que las respuestas del mismo no representan sus puntos de vista.

Ciertamente, confiar en lo que dice un chatbot de IA no es una buena idea, más aún cuando se trata de temas de salud. En el estado actual en el que se encuentra la tecnología, estas soluciones basadas en algoritmos tienen a alucinar, incluso tras haber recibido un entrenamiento de calidad.

Pero lo cierto es que SARAH parece no estar tan actualizada como se promete. El mencionado medio estadounidense señala que la herramienta está basada en ChatGPT-3.5 y que sus datos de entrenamiento llegan hasta septiembre de 2021.

Esto se traduce en que el chatbot no tiene información reciente sobre avisos médicos o eventos importantes recientes. En nuestras pruebas hemos podido comprobarlo. Le hemos preguntado cuándo se decretó el fin de la emergencia sanitaria de COVID-19.

Sara6 Sara6

Para SARAH lo mencionado nunca ocurrió, aunque ocurrió el 5 de mayo de 2023. También le hemos preguntado sobre las muertes por accidentes de tránsito del último año. El chatbot nos ha dado sus estadísticas, pero su conocimiento indica que el último año fue el 2020.

A nivel de privacidad, esta solución desarrollada por Digital People Soul Machines Limited promete mantener cada visita de manera anónima, sin embargo, se recopilan datos aleatorios no vinculados a una dirección IP. Tampoco se requiere una cuenta para utilizar el servicio.

Sara23 Sara23

Curiosamente, SARAH obliga a los usuarios a conceder permiso a la cámara y el micrófono para poder funcionar. Si bien el acceso a estos recursos está ligado a una “mejora en la experiencia de la conversación”, la misma podría llevarse a cabo únicamente a través de texto.

En este sentido, en tiempos donde cada vez valoramos más la privacidad y los permisos que otorgamos, sería idóneo tener la posibilidad de elegir si queremos habilitar el micrófono y la cámara para conversar de manera natural a través de la voz con el chatbot de IA.

La OMS aspira a crear una experiencia con tecnología de punta, por lo que el sistema también se alimenta de las expresiones faciales de los usuarios (por eso pide acceso a la cámara). Los vídeos, según la organización, se borran después de 30 segundos.

Como decimos, se trata de un proyecto en pleno desarrollo. De hecho, la propia OMS dice que está abierta a recibir comentarios sobre el funcionamiento de SARAH. Los usuarios pueden encontrar un botón dedicado para esto en la esquina superior izquierda.

El proyecto busca explorar los beneficios de la IA para la salud pública, así como comprender sus desafíos. La IA, reflexiona la OMS, "plantea importantes preocupaciones éticas, como el acceso equitativo, la privacidad, la seguridad y la precisión, la protección de datos y los prejuicios”.

Imágenes | OMS

En Xataka | Empresas de EEUU y China se dan la mano por un buen motivo: crear el primer estándar global de IA generativa



via Robótica e IA - Xataka https://ift.tt/Be6Qhx3