jueves, 29 de febrero de 2024

Leo, el asistente de IA “privado” de Brave, aterriza en Android para competir con Copilot de Edge: así puedes activarlo

Leo, el asistente de IA “privado” de Brave, aterriza en Android para competir con Copilot de Edge: así puedes activarlo

En el mundo de los navegadores, Brave se presenta como una opción para mejorar la privacidad en Internet. Se trata de una alternativa basada en Chromium que a lo largo de los años ha incorporado funciones como un equivalente a Google Discover llamado Brave News e incluso un sistema integrado que bloquea los "pop-up" de consentimiento de cookies.

Lo último de los miembros del proyecto es un asistente de inteligencia artificial al mejor estilo de Copilot. Estamos hablando Leo, una propuesta que aterrizó a finales del año pasado en las versiones de escritorio del navegador y que este año continúa con su despliegue. Acaba de llegar a Android y se prevé que en las “próximas semanas” haga lo propio en iOS.

Brave ahora tiene un asistente de IA integrado

La IA está transformando la forma en la que muchas personas interactúan con la web, y todo parece indicar que Brave no quiere quedarse fuera de esta tendencia. Leo, el nuevo asistente de IA del navegador, nos propone hacer muchas de las cosas que haríamos con Copilot, pero con ciertas mejoras a nivel de privacidad. Veamos algunos ejemplos.

Podemos pedirle en lenguaje natural que resuma la página web que estamos viendo, y también podemos hacerle preguntas específicas sobre el contenido de la misma. Leo también ha sido diseñado para generar contenido escrito (nada de imágenes por ahora), por lo que podemos utilizarlo para crear una carta, un correo electrónico o un artículo.

A nivel de privacidad, Brave dice que Leo no registra ni comparte las conversaciones de los usuarios, y tampoco las utilizada para entrenar modelos. Estamos ante una diferencia notable frente a opciones como Copilot de Microsoft, ChatGPT de OpenAI o Gemini de Google que, por defecto, recopilan datos de los usuarios para fines de entrenamiento.

La mencionada característica tiene una desventaja, por así decirlo, para algunos usuarios. Esta es que Leo no tiene un historial de chats. Una vez que pasamos a otra conversación, todo lo anterior se elimina y no es posible recuperarlo. Brave señala que planean ofrecer en el futuro una opción de historial, aunque también enfocada en la privacidad.

En los párrafos anteriores hablábamos de los modelos, pues bien, Leo funciona con tres modelos: Mixtral 8x7B, de la compañía europea Mistral AI; Claude Instant de la estadounidense Anthropic, y Llama 2 13B de la matriz de Facebook e Instagram, Meta. Brave permite que los usuarios de Leo cambiemos de modelo en cualquier momento.

Leo 124 Leo 124

Ahora bien, ¿por qué hay tres modelos? Una respuesta puede ser la versatilidad, aunque esto también tiene cierto truco: utilizar el modelo más potente, Mixtral 8x7B, tiene limitaciones. Si se excede el límite de uso, Brave nos invitará a suscribirnos a un plan llamado Premium de 15 dólares al mes para seguir utilizando el modelo.

Claude Instant está disponible en la versión gratuita al igual que Llama 2 13B, aunque funcionarán a menor velocidad que con una suscripción de pago. En todos los casos, estos modelos están disponibles en la versión de escritorio de Brave como en la de dispositivos Android. Como decimos, la compañía está trabajando en su versión para iOS.

Captura De Pantalla 2024 02 29 A Las 13 43 28 Captura De Pantalla 2024 02 29 A Las 13 43 28 Leo en macOS

Para acceder a Leo desde un ordenador tan solo tendremos que empezar a escribir en la barra de direcciones y pulsar sobre “Preguntar a Leo”. También podremos seguir utilizándolo desde la barra lateral del navegador, que podemos abrir o cerrar desde el botón que está a la derecha de la barra de direcciones.

Leo 23 Leo 23 Leo en Android

En Android la mecánica es muy similar. Encontramos a “Preguntar a Leo” cuando escribimos en la barra de direcciones y podemos acceder a él en cualquier momento a través de un menú desplegable. Pulsamos sobre el botón de los tres puntitos de la equina inferior derecha y después pulsamos sobre Leo.

No debemos olvidar que, al igual que otras propuestas del mercado, Leo puede brindar respuestas incorrectas, reproducir sesgos e incluso “alucinar”. Los asistentes de IA están evolucionando a pasos agigantados, pero los usuarios tenemos que tener en cuesta estas limitaciones a la hora de utilizarlos.

Imágenes | Brave | Xataka

En Xataka | El próximo proyecto IA de Adobe no tiene nada que ver con las imágenes: crear música a partir de un texto



via Robótica e IA - Xataka https://ift.tt/WAeGfJp

Lo que más me ha impresionado del MWC es el robot Ameca. Y tengo claro que va a sustituir a la atención al cliente

Lo que más me ha impresionado del MWC es el robot Ameca. Y tengo claro que va a sustituir a la atención al cliente

Estando ya fuera del Mobile World Congress de Barcelona, y tras haberme pateado casi cada metro cuadrado de la Fira de L’Hospitalet, puedo decir que entre lo que más me impresionó queda destacado el robot Ameca, de Engineered Arts. Puede analizar a su público, interactuar con él, conversar haciéndose pasar por una persona (lo logra por completo) y hasta se comunica corporalmente como un humano. Pese a que la brecha con la máquina queda patente en todo momento, especialmente por unos servos que hacen notable ruido al moverse, la frontera a menudo se diluye.

Con un esqueleto a medio camino entre Terminator y los integrantes del parque de Westworld, lo que realmente me llamó la atención de Ameca fueron su capacidad de análisis y de conversación natural. Estoy convencido de que robots de este tipo acabarán sustituyendo a los ordenadores y paneles de atención al cliente, incluso al personal que realiza esta tarea; por más que haya notado cierta animadversión hacia lo bien que se hace pasar como humana dicha máquina: la respuesta de quienes conversaban con Ameca fue contradictoria.

Cuerpo articulado y cerebro basado en modelos de lenguaje: la combinación definitiva

Robot Ameca Robot Ameca

Ameca se encuentra en un rincón del MWC alejado del gran público, en una esquina del gigantesco pabellón 3 y escondida de los grandes focos de la feria. De hecho, me costó encontrarla una vez me topé con las primeras noticias en torno a su presencia: no parece que Etisalat, el grupo de telecomunicaciones de Emiratos Árabes Unidos que cobija el robot, tuviera excesivas intenciones de darle publicidad. De hecho, el megadron de EHang tenía mayor protagonismo que Ameco, me llamó mucho la atención.

Daba igual, el espectáculo era Ameca. Sólo tuve que guiarme por la muchedumbre cuando llegué a la X en el mapa.

Erguida sobre un pequeño círculo de metal que hacía de base, y con un cuerpo metálico construido a retazos tras los cuales dejaba ver los cables, servos y resto de circuitería, Ameca conversaba alegremente con los asistentes al MWC pidiendo preguntas, respondiéndolas y, lo que me pareció más interesante, seguía los hilos de la conversación para anticiparse a los interlocutores y marcar ella la pauta. Este comportamiento tan natural chocaba de plano con la apariencia de robot tosco de Ameca. Y es lo que despertaba mayores reacciones entre el público, tanto positivas como negativas.

Donde más sacaba a relucir su comportamiento natural era en el análisis de todos los que observábamos su actuación: nos identificaba perfectamente, sabía si éramos hombres o mujeres, cómo vestíamos, incluso arriesgaba cierta opinión subjetiva en base al aspecto. Que si nos veía felices, que si esa chaqueta amarilla nos sentaba bien, que si parecía que el salón nos estaba gustando a tenor de las expresiones. Escuché más de un «Este robot da miedo» y expresiones similares.

No sólo el lenguaje era natural, también muy coloquial y acertado a cada persona. Hablar con Ameca era como hacerlo con un humano. Y sin necesidad de comenzarlo todo con una pregunta, el propio robot se mostraba proactivo: le costaba estar callado. Éste era su principal atractivo, obviamente.

Aparte de la comunicación y su excelente base de lenguaje y de interpretación gestual, la propia Ameca mantenía un gran nivel comunicativo en su propio cuerpo. Los movimientos eran algo toscos y bruscos debido a los servos, aunque sabía expresarse muy bien con las manos y, sobre todo, con la cara. La expresión de sorpresa me llamó muchísimo la atención, también cómo sonreía y lo bien que acompañaba con gestos todos sus alegatos. Incluso hizo los cuernos con la mano tras un chiste; lo que despertó un estallido de risas y una ovación en el público.

La atención al cliente robótica no es el futuro, es el presente

Robot Ameca Robot Ameca

Actualmente estamos acostumbrados a pelear con una pantalla cuando buscamos información en algún punto de atención al cliente. O, si hay suerte, conversamos con el personal hasta resolver cualquier duda que podamos tener, si es que logran resolverla. Con Ameca esto puede cambiar, justo es uno de los negocios a los que apunta Engineered Arts, creadores de Ameca.

El robot dispone de un sistema de reconocimiento visual que identifica a las personas que tiene delante por su apariencia física y su vestimenta. Posee micrófonos para captar las voces y un sistema de movimiento capaz de reproducir con notable fidelidad las acciones humanas. Todo se comunica con la nube a través de un framework denominado como Tritium; que incluye soporte para modelos de lenguaje como GPT-3.5 y GPT-4, clave para la comunicación de Ameca.

Dispone de compatibilidad con 21 idiomas diferentes, incluido el español, aunque los desarrolladores sólo tenían activo el inglés en el MWC. Todo para facilitar la comunicación y reducir en la medida de lo posible la latencia: como pude comprobar in situ, no existía apenas retraso entre la captación de una pregunta, su procesado y la respuesta de Ameca; lo que facilitaba en gran medida la comunicación y la experiencia de estar hablando casi con una persona. Ameca da el pego.

Preguntarle a un robot en qué consulta se encuentra un médico, pedirle los lugares turísticos cercanos o cuál es el mejor sitio del cine para ver la película y que directamente nos venda la entrada: todas estas posibilidades están al alcance de máquinas como Ameca. Sin que tengamos que cambiar la manera de interacción, ya que entienden el lenguaje natural y pueden comunicarse de dicha manera: no es un episodio de Black Mirror, está ya aquí. Por lo que aprecié en el público que jugaba con Ameca, algunas personas se adaptarán mucho mejor que otras.

En Xataka | 19 páginas y servicios para crear imágenes desde cero utilizando inteligencia artificial



via Robótica e IA - Xataka https://ift.tt/klbExLA

Google, Meta y ahora Adobe. La creadora de Photoshop ya trabaja en una IA para crear y editar música con texto

Google, Meta y ahora Adobe. La creadora de Photoshop ya trabaja en una IA para crear y editar música con texto

Que este año vamos a ver un sinfín de aplicaciones de la IA generativa no es un secreto para nadie. Estamos familiarizados con la generación de texto, de imágenes y estamos asistiendo a la generación sintética de vídeo. Y de música, también. Ya hemos visto varios experimentos relacionados con la generación de clips de audio por parte de, entre otras compañías, Google, Microsoft y Meta, por lo que era cuestión de tiempo que Adobe, la firma detrás de Photoshop e Illustrator, anunciase su propia tecnología.

Project MusicGenAI Control. Así se llama el proyecto en el que Adobe está trabajando y que ha sido anunciado durante el Hot Pod Summit que ha tenido lugar esta misma semana. Este sistema se enmarca dentro de Firefly, la familia de modelos de inteligencia artificial de Adobe, y su funcionamiento parece ser bastante sencillo: solo necesitamos decirle a la IA qué estamos buscando vía texto y la IA lo genera.

"Música de tensión". Como la inmensa mayoría de herramientas de IA generativa, Project MusicGen AI funciona mediante texto. El usuario solo tiene que introducir qué necesita, como "música de tensión", "ritmo feliz", "jazz suave" o "ambiente chill" y la IA se encarga del resto. No solo eso, sino que el modelo también es capaz de ajustar el audio basándose en un audio de referencia, de forma que puede ampliar la duración de un clip.

Una de las cosas que todavía no se han mostrado es la interfaz de la herramienta

Y ahora, edición. Es posible (y probable) que el resultado generado por la IA no sea lo que estamos buscando exactamente, por lo que la herramienta nos permite editar el sonido. Siempre mediante texto, podemos convertir el audio generado en un audio de referencia, ajustar el tempo, la estructura, añadir patrones que se repiten (para los estribillos, por ejemplo), aumentar o reducir la intensidad o, simplemente, crear un bucle (ideal para la música de fondo en un vídeo).

Generación de música con bucle. Generación de música con bucle.

El Photoshop de la música. La capacidad de edición es lo que hace diferente al modelo de Adobe con respecto a otras propuestas disponibles o en desarrollo. Según ha expresado Nicholas Bryan, Senior Research Scientist en Adobe Research:

"Una de las cosas más interesantes de estas nuevas herramientas es que no se limitan a generar audio, sino que lo elevan al nivel de Photoshop al ofrecer a los creadores el mismo tipo de control profundo para dar forma, ajustar y editar su audio. Es una especie de control a nivel de píxel para la música".

De momento, una investigación. Eso es ahora mismo este proyecto, una investigación. No sabemos si Adobe tiene intención de lanzarlo de forma comercial o si estará disponible en forma de demo de alguna manera, aunque viendo los recientes movimientos de la compañía cabe esperar que veamos esta IA integrada en alguno de sus productos más pronto que tarde. Podemos pensar en Premiere o Audition, sin ir más lejos. Cuestión de tiempo.

Imagen | Unsplash, Adobe

En Xataka | La mejor canción para probar el rendimiento de tus auriculares, según un investigador de sonido que lleva 35 años usándola



via Robótica e IA - Xataka https://ift.tt/trzQ15Z

EMO es la impresionante IA que viene de China: vídeos a partir de una sola imagen y un archivo de voz

EMO es la impresionante IA que viene de China: vídeos a partir de una sola imagen y un archivo de voz

Cada día es una historia nueva con la IA. Si hace unas semanas era Sora, ahora es EMO la inteligencia artificial generativa que nos deja impresionados. Y al contrario de lo que suele ser habitual, en este caso no viene ni de OpenAI ni de Google ni de ninguno de los grandes actores del panorama. La nueva IA viene de China, pues ha sido presentada por Alibaba

Emote Portrait Alive (EMO) es una IA generativa que permite generar vídeos de retratos a partir de una imagen y un archivo de voz. Pero lo más llamativo es el resultado. La sincronización labial es excelente, pero también lo son las expresiones, que se adaptan en función del tono de voz

Como siempre con la IA, más vale ver los ejemplos directamente. En la página del proyecto en Github podéis encontrar múltiples ejemplos. 

Tenemos por ejemplo a Audrey Hepburn cantando Perfect de Ed Sheeran o a la mujer del vídeo de Sora hablando con la voz de Mira Murati, en lo que es claramente una referencia interna entre los equipos que se dedican a la inteligencia artificial. 

EMO ha sido desarrollado por Linrui Tian, Qi Wang, Bang Zhang y Liefeng Bo, del Instituto de Inteligencia Computacional del Grupo Alibaba. Como ocurre con Sora, por el momento se trata de una herramienta dedicada a investigación y no está disponible al público para ser utilizada. Sí comparten múltiples ejemplos con las distintas posibilidades. Además de ver cantar o hablar, también encontramos ejemplos donde a partir de una misma imagen se obtiene un vídeo de la persona enfadada, contenta o reflexiva. 

EMO puede generar vídeos de retrato de distinto tiempo, en función de la duración que tenga el archivo de audio a partir del cual se genera. Según explican los investigadores, la consistencia del personaje se mantiene durante todo el vídeo. 

Viendo los resultados es fácil pensar en el impacto que puede tener para múltiples actores. Durante la huelga se discutió sobre los derechos de imagen, pero EMO también pone el foco en la voz. Una característica igualmente única y a partir de la cual se pueden conseguir efectos impresionantes. 

En Xataka | 19 páginas y servicios para crear imágenes desde cero utilizando inteligencia artificial



via Robótica e IA - Xataka https://ift.tt/p2ch5nF

miércoles, 28 de febrero de 2024

El cofundador de NVIDIA crea un superordenador para IA: EE.UU pone el hardware, pero China e Irán tienen a los expertos

El cofundador de NVIDIA crea un superordenador para IA: EE.UU pone el hardware, pero China e Irán tienen a los expertos

La IA y los semiconductores, se están convirtiendo en armas estratégicas en la geopolítica, decantando la balanza del conocimiento y la innovación en la carrera por la superioridad tecnológica que disputan EE.UU y China.

Chris Malachowsky, cofundador de NVIDIA y exalumno de la Universidad de Florida, ha financiado con 25 millones de dólares la construcción de HiPerGator AI, uno de los superordenadores más potentes del mundo. El resto del proyecto se ha financiado con las aportaciones de 25 millones de dólares por parte de NVIDIA, otros 25 millones de un alumno de la universidad y 20 millones más que aportará la propia universidad. “Hemos creado un modelo potente y replicable de cooperación público-privada para beneficio de todos”, afirmaba el cofundador de NVIDIA en un comunicado de la compañía.

Este superordenador está formado por 140 nodos NVIDIA DGX A100, 17.920 núcleos AMD Rome, 1.120 GPU NVIDIA Ampere A100 y un almacenamiento de 2,5 PB. Este conjunto ofrece una potencia de cómputo de 700 petaflops para IA.

La herramienta se ha sido instalada en un edificio de aspecto futurista en el campus de la Universidad de Florida que lleva el nombre del cofundador de NVIDIA. Su objetivo es convertir a la institución en una de las pioneras en el uso de informática de vanguardia para la investigación académica y un imán para el talento en inteligencia artificial.

Los investigadores de la Universidad de Florida y de otras universidades del estado, tenían intención de usar este superordenador para investigaciones como desarrollar mejores variedades de trigo o investigar nuevos medicamentos contra el cáncer, usando inteligencia artificial en los procesos de emulación y ensayo.

El principal escollo para conseguirlo es que, pese a tener una de las mejores herramientas al servicio de la IA que se ha construido en el mundo, el talento y los conocimientos que se necesitan para exprimir al máximo sus capacidades están en China e Irán.

EE.UU tiene los chips, China e Irán los cerebros

Esta situación pone a la Universidad de Florida en un serio aprieto. Las leyes anti-China impulsadas por el gobernador de Florida Ron DeSantis y la administración de Donald Trump y Joe Biden, prohíbe explícitamente la contratación de investigadores en siete países clasificados como “preocupantes”: China, Irán, Cuba, Venezuela, Rusia, Siria y Corea del Norte.

En declaraciones a Fortune, Danaya Wright, catedrática de derecho que preside el claustro de profesores de la universidad, afirmaba: “Es una ley estúpida por muchas razones. La realidad es que necesitamos atraer talento, no expulsarlo. Para algunos profesores, estas leyes obstaculizarán la investigación y las retrasará durante varios años”.

El talento en inteligencia artificial que se ha ido generando en EE.UU ha sido atraído con grandes salarios hacia empresas privadas como la propia NVIDIA, dejando muchas vacantes en la investigación universitaria. En ese contexto, la única salida para las universidades es atraer talento de otros países, para desarrollar las investigaciones en curso.

China e Irán han venido incentivando programas educativos sobre inteligencia artificial en sus programas de estudio desde 2017. Eso ha permitido que sus graduados cuenten con un elevado nivel de conocimientos en esta materia. El bloqueo de EE.UU a estos países “preocupantes” está consiguiendo que las universidades de sus países no puedan acceder al hardware que necesitan para desarrollar sus conocimientos en aplicaciones científicas.

Según CSRankings, cuatro de las seis universidades que más artículos científicos publican sobre IA son chinas. En 2018, una cuarta parte de los principales investigadores de IA del mundo eran de China y el 57% de estos investigadores fueron contratados por universidades estadounidenses. De estos investigadores, tres cuartas partes continuaron trabajando en Estados Unidos tras sus investigaciones iniciales, tal y como muestran los datos del estudio de MacroPolo.

En EE.UU el caso es justo el inverso: tienen todo el hardware necesario, pero se necesita el talento y los conocimientos para sacarle todo el rendimiento. “Los mejores talentos quieren trabajar con los mejores talentos, e históricamente las universidades estadounidenses han sido el lugar donde eso sucede”, dijo a Fortune Matt Sheehan, miembro del Carnegie Endowment for International Peace.

Los investigadores están molestos con los políticos porque en ocasiones han cedido a las presiones para relajar determinadas restricciones en materia de inversión, como las que llevaron a cabo importantes firmas financieras, incluida Citadel del milmillonario Ken Griffin, para revisar una prohibición a los ciudadanos chinos de invertir en bienes raíces de Florida.

La Universidad de Florida reclutó a más de 1.000 estudiantes de posgrado de China, Irán, Venezuela y otros cuatro países cubiertos por la ley de Florida antes de su aprobación.

En la actualidad, todo este talento no está operativo en las universidades estadounidenses. “El trabajo de investigación diario lo realizan los estudiantes de posgrado, no los miembros de la facultad. Si no contamos con una cartera de doctorados con conocimiento de alto valor, no podemos hacer todo el trabajo que queremos hacer”, señalaba Jiangeng Xue, profesor de ciencia e ingeniería de materiales en la Universidad de Florida.

En Xataka | China va a ser imbatible en inteligencia artificial. No lo dice cualquiera, lo defiende el director general de Google

Imagen | NVIDIA



via Robótica e IA - Xataka https://ift.tt/gZPteU6

La fintech Klarna despidió a 700 empleados en 2022. Ahora afirma que han cubierto esas bajas con una IA

La fintech Klarna despidió a 700 empleados en 2022. Ahora afirma que han cubierto esas bajas con una IA

Los despidos nunca son plato de buen gusto, pero hay empresas que ejecutan este tipo de procesos de forma terrible. Es el caso de la fintech sueca Klarna, que en junio de 2022 despidió a 700 empleados con un vídeo pregrabado y además difundiendo datos personales de gran parte de los afectados. Aquel despido masivo —el 10% de su plantilla— parece haber sido según sus responsables una decisión adecuada.

Apuesta por ChatGPT. Hace un año Klarna anunció uno de los primeros acuerdos con OpenAI. Ambas firmas colaboraron para desarrollar un plugin para ChatGPT que permitía mejorar la experiencia de compra. Esa apuesta se ha hecho global en las últimas semanas, y según sus datos, ha sido todo un éxito.

Hola, soy tu chatbot de Klarna. De hecho los responsables de la fintech aseguran que el chatbot de IA gestiona ahora dos terceras partes de todos los chats con los clientes, lo que representa hasta el momento unos 2,3 millones de conversaciones. De hecho los usuarios que han usado este chatbot lo valoran al mismo nivel que a los agentes humanos. Como explican en Fast Company, se espera que Klarna salga a bolsa este año y "necesita toda la expectación qeu pueda generar" para lograr una buena valoración en el mercado.

La IA sustituye a 700 agentes. La interfaz de lenguaje natural ayudó inicialmente a los clientes a elegir productos en una experiencia de "compra fácil", como la llamaba Klarna, pero ahora este chatbot se encarga de gestionar reembolsos, cancelaciones e incluso disputas en los procesos de compra. En su anuncio, Klarna asegura que el asistente de IA "está haciendo el trabajo de 700 agentes a tiempo completo". Es curioso que utilicen esa cifra, porque como hemos mencionado es justo el número de empleados que despidieron en junio de 2022.

Es solo una coincidencia, dicen. Dicha estimación parece desafortunada, y de hecho en Klarna aseguraron a Fast Company que el comentario "no está de modo alguno asociado a las reducciones de plantilla" de 2022. La empresa indica que el servicio de atención al cliente está gestionado por cuatro o cinco grandes empresas de este ámbito que tienen unos 65.000 empleados en conjunto, y que da la opción a todos los usuarios de que contacten con un agente humano.

Pero defienden que la IA haga mucho trabajo. El CEO de la empresa, Sebastian Siemiatkowski, ya se enfrentó a una polémica por aquellos despidos, pero sigue mostrando su confianza en la IA para reemplazar puestos de trabajo y crear así compañías más eficientes. Klarna realizó más despidos a finales de 2022 y en diciembre de 2023 indicó que desaceleraba las contrataciones. Indicó en Vice que precisamente la IA estaba haciendo que las necesidades de contratación se estaban ajustando.

La IA trabaja 24/7. En su reciente anuncio los resposables de Klarna inciden en otro punto: su chatbot de IA no solo habla 35 idiomas y está disponible en 23 mercados, sino que además trabaja 24 horas al día, siete días a la semana. Sin descanso y sin quejarse, este desarrollo permitirá "impulsar una mejora de los beneficios de 40 millones de dólares en 2024".

En Xataka | El Banco Santander se lanza al "compra ahora, paga después": tras los pasos de Klarna y su modelo de éxito



via Robótica e IA - Xataka https://ift.tt/ogMTLO0

La robótica sigue sin conquistar las ferias de tecnología como el MWC. Todavía estamos con los 'robodogs'

La robótica sigue sin conquistar las ferias de tecnología como el MWC. Todavía estamos con los 'robodogs'

El MWC es mucho más que móviles. Eso ya lo tenemos claro desde hace años. Pero los robots todavía no han logrado convertirse en protagonistas. Cuando uno asiste a una feria de tecnología espera ver lo último en innovación. Ocurre con los coches, wearables y todo tipo de dispositivos, pero si nos referimos a la robótica, la sensación que se nos queda es que sigue siendo una promesa que no llega.

El protagonismo este año en robots se lo han llevado dos 'robodogs'. Dos perros robot que son muy llamativos, pero que no dejan de ser atrezo. No han habido más robots significativos. Los avances en robótica mostrados en el MWC 2024 se resumen con los perros robot de Xiaomi y Tecno.

CyberDog y Dynamic, las estrellas robóticas del Mobile

El CyberDog 2 fue presentado en China el verano pasado y durante este Mobile lo hemos podido ver en acción. Estamos ante un perro robótico que ha sido entrenado con una base de datos de 30.000 perros simulados por IA. Está plagado de sensores, desde una cámara RGB hasta sensores LiDAR, pasando por sensores de fuerza, cámaras de profundidad... todo esto le permite actuar como si fuera una mascota.

El perro robótico de Xiaomi es capaz de seguirnos, darnos la pata e incluso dar volteretas. El nuevo modelo es más ligero (8,9 kilogramos) y con un aspecto más estilizado. Su peso es de unos 1.600 euros al cambio, aunque Xiaomi nos explica que no tiene previsión de lanzarlo en Europa.

Tecno Robodog Tecno Robodog

El Dynamic 1 es el nuevo perro robot de Tecno. Según describe la marca, una especie de pastor alemán robótico. El modelo de Tecno puede subir escaleras, tiene reconocimiento de voz para reconocer a quién le está hablando y cuenta con una autonomía de 90 minutos. Un perro muy cansado.

Tecno es un fabricante de origen chino que, pese a su gran tamaño, todavía sigue sin confirmar su llegada a Europa. Año tras año parece que por fin es el momento, pero desde la compañía siguen sin poner una fecha.

Laika Laika

No han sido los únicos robots, pero sí los que se movían libremente y tenían suficiente "inteligencia" como para intentar equipararse a los seres vivos que intentan imitar. Entre el MWC hemos encontrado otros robots como Temi, un asistente para centros comerciales o Laika, un ejemplo de robot inspirado en la famosa perra espacial, aunque únicamente para mostrar los materiales de construcción.

Temi Temi

Lamentablemente, ninguno de estos ejemplos nos enseña algo que no haya visto desde hace décadas. La robótica no es algo precisamente reciente. Sí es cierto que gracias al avance de la IA y el reconocimiento de voz, estos asistentes robóticos cada vez son más autónomos, pero en esencia su papel sigue siendo el mismo.

Los robots humanoides siguen sin recorrer los pasillos

Fabricantes como Samsung nos han enseñado brazos robóticos que prueban móviles. También hemos visto operaciones controladas mediante realidad aumentada gracias a la robótica. Si bien siguen siendo demostraciones poco impresionantes y muy puntuales. Más colocadas en la feria por cuestiones de marketing que no por un intento de transmitir lo avanzado que es ese proyecto.

Samsung Brazo Robotico Samsung Brazo Robotico

Aunque China ha anunciado que va a empezar a producir robots humanoides en masa, lo cierto es que en el Mobile World Congress solo hemos visto un robot humanoide. Iniciativas como Figure AI o Optimus de Tesla quedan todavía lejos.

La única protagonista estaba en el stand de Etisalat. Se trata de Ameca, que ya fue presentado en 2021 y en esta edición ha incorporado GPT-4.

El MWC 2024 podría haber tenido una explosión de robots, pero de momento se queda en la palabra inteligencia artificial. Quizás la edición de 2025 sea muy distinta, pero ahora mismo no hay rastro de que vaya a ocurrir algo así.

En Xataka | He construido mi propio perro-robot como los de Boston Dynamics, lo controlo con un mando de PlayStation



via Robótica e IA - Xataka https://ift.tt/jeEOVq4

La debacle de Gemini y sus imágenes inclusivas le ha salido muy cara a Google: ha perdido 90.000 millones de dólares

La debacle de Gemini y sus imágenes inclusivas le ha salido muy cara a Google: ha perdido 90.000 millones de dólares

El lanzamiento de Gemini 1.5 no está dándole demasiadas alegrías a Google, que ha visto cómo la confianza en sus modelos de IA se ha derrumbado de forma notable. Eso ha tenido un efecto directo y muy negativo en el valor de la compañía en bolsa.

90.000 millones. Como indican en Forbes, las acciones de Google cayeron un 4,5% en bolsa el lunes hasta los 138,75 dólares, su valor más bajo desde el 5 de enero. Esta ha sido la segunda caída diaria más importante de sus acciones en lo que va del año, y el impacto en la valoración bursátil es tremendo: ha perdido 90.000 millones de dólares de un día para otro.

Nazis negros. La razón ha sido el mal comportamiento de su nuevo modelo de IA, que permite generar imágenes pero que en las pruebas de diversos usuarios demostró que reflejaba imágenes históricas de forma excesivamente inclusiva. Tanto que al pedirle por ejemplo imágenes de soldados alemanes en la II Guerra Mundial aparecieran personas negran con el uniforme nazi.

Google explica el error. Los responsables de Google acabaron pausando el servicio de generación de imágenes. Explicaron además los problemas que motivaron ese comportamiento demasiado inclusivo, y prometieron realizar pruebas exhaustivas para evitar este problema en el futuro.

Pero es que Gemini ya metió la pata antes. Justo unos días antes el chatbot de Google también tuvo problemas serios y se comportó de forma anómala durante unas horas. Mezclaba idiomas y acababa dando respuestas que eran un verdadero galimatías, un problema que Google acabó identificando y solucionando a las pocas horas.

Bard ya hizo lo mismo. Lo curioso es que esta misma situación se produjo hace casi justo un año: a principios de febrero, tras la (tímida) presentación de su chatbot original, Bard, se vio cómo su respuesta a una pregunta sobre el telescopio espacial James Webb contenía errores. Aquello le costó a Google una caída en bolsa de 100.000 millones de dólares.

No nos podemos fiar. Como explicaba el analista Ben Reitzes, de la consultora Melius Research, "el problema con las acciones no es el debate sobre Gemini en sí mismo, sino la percepción de verdad tras la marca. "Si a Google se la ve como una fuente no fiable para la IA para parte de la población, eso no es bueno para el negocio".

Pichai está que trina. Según Semafor el CEO de Google, Sundar Pichai, ha reconocido que los problemas con el generador de imágenes de Google son "completamente inaceptables". En el memo interno también explicó que los equipos de desarrollo de Google están trabajando a contrarreloj para que la situación no se repita y "ya hemos visto mejoras sustanciales en una amplia variedad de prompts".

Pero el daño está hecho. Esto es un duro golpe para las alternativas que Google plantea como rivales de ChatGPT y Copilot, las actuales grandes referencias tanto en sus versiones gratuitas como en las de pago por suscripción. GPT-4 sigue siendo la referencia en chatbots a pesar de haberse presentado hace meses, y aunque todos los chatbots pecan de lo mismo —cometen errores e inventan—, lo sucedido no ayuda a que Google recupere el terreno perdido hasta ahora.

Imagen | Maurizio Pesce

En Xataka | Hemos pedido a dos nutricionistas que evalúen a ciegas un menú semanal creado con GPT-4. Ha salido muy bien parado



via Robótica e IA - Xataka https://ift.tt/joUp63V

OpenAI acusa a 'The New York Times' de 'hackear' a ChatGPT

OpenAI ha acusado a ' The New York Times ' de haber 'hackeado' a su robot conversacional movido por inteligencia artificial (IA) ChatGPT para sustentar la demanda que el medio de comunicación presentó contra la tecnológica, así como contra Microsoft, a finales del pasado diciembre por posibles infracciones de derechos de autor. Por esta razón, la firma capitaneada por Sam Altman ha solicitado a al tribunal de distrito del sur de Nueva York, a cargo del caso, la desestimación de varias alegaciones presentes en la denuncia. «La verdad, que saldrá a la luz en el transcurso de este caso, es que el 'Times' pagó a alguien para que 'hackease' los productos de OpenAI», ha señalado la compañía en la moción presentada ante el tribunal. Noticias Relacionadas estandar No El Papa es una mujer y los vikingos eran negros: los fallos históricos garrafales de la IA de Google Rodrigo Alonso reportaje Si Descenso a los infiernos de la Biblioteca Nacional: todo lo que la humanidad salvó del fuego Bruno Pardo Porto Cabe recordar que la demanda realizada por el medio estadounidense se basa en supuestos fallos de ChatGPT que habrían provocado que el robot reprodujese, de forma literal, artículos y noticias de su propiedad. Algo que supondría una infracción de derechos de autor. Sin embargo, de acuerdo con la tecnológica, para ello, el diario recurrió al «uso engañoso de mensajes que violan descaradamente los términos de uso» de la plataforma de IA y que, además, van en contra de los «famosos estándares de periodismo riguroso» del periódico«. Ian B. Crosby, socio de Susman Godfrey y abogado principal del 'Times' en este caso, no lo ve así; en un comunicado, recogido por el propio medio , apunta que «lo que OpenAI señala extrañamente de forma errónea como 'hacking' es, simplemente, utilizar los productos de OpenAI para buscar evidencias de que robaron y reprodujeron obras protegidas por derechos de autor» del medio estadounidense. Crosby, además, remarcó que la tecnológica en ningún momento ha cuestionado que haya recurrido a «millones de trabajos del 'Times' para construir y potenciar sus productos comerciales sin nuestro permiso». Y es que, como se ha explicado ya muchas vez, ChatGPT, como cualquier otra herramienta de inteligencia artificial generativa, no es nada sin los datos con los que es entrenado. Solo un cascarón vacío sin ideas. Estas, además, proceden de todos los rincones de internet; desde redes sociales, hasta, evidentemente, medios de comunicación. Desde que el medio presentó la demanda contra la empresa que ha puesto patas arriba internet, OpenAI ha afirmado que, en realidad, no necesita las publicaciones del 'Times' para mejorar a ChatGPT. Las dos empresas pasaron meses intentando cerrar un acuerdo similar al que la tecnológica ha alcanzado con otros medios de comunicación como el editor Axel Springer o Associated Press. Durante el pasado Foro Económico de Davos, Sam Altman, CEO de la empresa de IA, afirmó que esta sigue «dispuesta a pagar» a los editores para emplear el contenido publicado en sus medios.

via Tecnología https://ift.tt/zxVDGij

China quiere participar en la carrera del vídeo generativo: acaba de lanzar su primera serie de animación creada con IA

China quiere participar en la carrera del vídeo generativo: acaba de lanzar su primera serie de animación creada con IA

Estamos presenciando en directo cómo la inteligencia artificial está cambiando muchos aspectos del mundo en el que vivimos. Si nos enfocamos en el sector audiovisual podemos decir que es cada vez más fácil generar todo tipo de contenido. Suno AI, DALL·E y Sora, por ejemplo, han demostrado un enorme potencial para crear música, imágenes y vídeos respectivamente. Y esto podría ser solo el principio.

Frente a este escenario han empezado a surgir diferentes opiniones acerca de cómo la evolución de la tecnología generativa podría impactar en la industria del entretenimiento. Mientras que cineastas como Tyler Perry dan voz de alarma, artistas como Reid Southen creen que no hay razones para entrar en pánico ahora mismo. Mientras tanto China acaba de estrenar su primera serie de animación realizada con IA.

‘Qianqiu Shisong’, la serie china generada con IA

La Televisión Central de China (CCTV) ha comenzado a emitir la que considera que es la primera serie animada del país realizada en gran parte con inteligencia artificial generativa. Según SCMP se trata de ‘Qianqiu Shisong’, una producción que se compone de 26 episodios con una duración media de 7 minutos cada uno. Y, según explican, han utilizado tanto herramientas como datos propios para materializar el proyecto.

Detrás de este contenido se encuentran varias herramientas generativas, pero destaca un modelo de generación de texto a vídeo diseñada para el mercado audiovisual. La misma ha sido desarrollada conjuntamente entre China Media Group, que ha ofreciendo cientos de horas de contenido televisivo, y el Laboratorio de Inteligencia Artificial de Shanghái (SAIL), que se ha encargado de desarrollar la tecnología de los algoritmos.

Qianqiu Shisong 1 Qianqiu Shisong 1

SAIL señala que el modelo fue utilizado en cada etapa del diseño de producción, desde el diseño artístico hasta la postproducción. Según el laboratorio, esta novedosa herramienta brinda a los productores un recurso “eficiente y de bajo coste” para el diseño de personajes y escenas. Asimismo, los académicos prometen seguir trabajando para lanzar una herramienta aún más potente para el mercado audiovisual.

Qianqiu Shisong 2 Qianqiu Shisong 2

‘Qianqiu Shisong’, basada en poesías clásicas chinas, nos muestra algunas escenas interesantes, aunque los resultados parecen estar lejos del material compartido por OpenAI que teóricamente es capaz de generar Sora. Tampoco estamos seguros qué tanto trabajo manual hay detrás de cada una de estas escenas. En cualquier caso, queda claro que China está tomándose en serio la presencia de la inteligencia artificial.

Decimos esto último porque podríamos ver más contenidos animados generativos provenientes del país asiático. El motivo es que la Comisión de Supervisión y Administración de Activos Estatales celebró un seminario donde pidió a las empresas estatales chinas a adoptar herramientas de inteligencia artificial, pero no de una manera tímida, sino de manera prioritaria y que representen “cambios profundos”.

Imágenes | CCTV

En Xataka | Se están publicando tantos libros escritos por IA que Amazon ha tomado una decisión: limitar la autopublicación



via Robótica e IA - Xataka https://ift.tt/8skDdWp

martes, 27 de febrero de 2024

Jensen Huang lo tiene claro: a estas alturas nadie debería aprender a programar, ya lo hará la IA por nosotros

Jensen Huang lo tiene claro: a estas alturas nadie debería aprender a programar, ya lo hará la IA por nosotros

Si tenéis hijos y aún no están en la universidad, probablemente hayáis pensado en que no sería mala idea que aprendieran a programar. Con la demanda que ha habido en los últimos años este tipo de conocimientos parecen útiles de cara al futuro. Son algo con lo que entre otras cosas podrá conseguir un trabajo, al menos aparentemente.

Esa recomendación que hemos oído en los últimos años tiene los días contados. Al menos según Jensen Huang, CEO de NVIDIA. En el reciente World Governments Summit celebrado en Dubai hace dos semanas este directivo respondió a una serie de preguntas en una charla con la organización, y cuando le preguntaron por la educación, Huang precisamente habló sobre este tema:

"Voy a decir algo y va a sonar completamente opuesto de lo que la gente siente. Probablemente recordéis que durante los 10 o 15 últimos años prácticamente todos los que han estado en un esenario como este ha dicho 'es vital que vuestros hijos aprendan informática. Todo el mundo debería aprender a programar'.
Y de hecho es casi exactamente lo contrario. Es nuestro trabajo crear tecnología informática que haga que nadie tenga que programar y que el lenguaje de programación sea el lenguaje humano. Todo el mundo es ahora un programador. Ese es el milagro de la inteligencia artificial".

El comentario de Huang contrasta con la situación que efectivamente hemos vivido en los últimos años, y ciertamente sus argumentos son coherentes con la revolución que han planteado los modelos de IA generativa. Desde que GitHub Copilot comenzara a revolucionar este ámbito en 2021 hemos visto cómo su éxito entre los desarrolladores ha sido aplastante.

Hoy en día nueve de cada diez desarrolladores usan asistentes de IA para programar —ChatGPT, Copilot y Gemini ofrecen esa opción, desde luego—, y recursos que antes eran "la Biblia de los programadores" como Stack Overflow han visto su tráfico en picado caer debido a dichos chatbots.

La revolución planteada por estos modelos de IA generativa plantea cambios a nivel laboral, y desde luego los programadores podrían verse afectados. El CEO de Stability AI ya declaró hace meses que creía cómo este tipo de profesionales acabarán siendo sustituidos por una IA, pero hoy por hoy parece difícil asegurarlo, sobre todo teniendo en cuenta que estos modelos son una ayuda, pero cometen errores y es necesario revisar el código que generan.

Aún así, las declaraciones de Huang han sido validadas por uno de los programadores más famosos del mundo: John Carmack, cofundador de id Software y responsable de juegos legendarios como Doom o Quake, que respondía a un usuario que había difundido la charla de Huang. Según Carmack,

"'programar' nunca fue la fuente de valor, y la gente no debería apegarse demasiado a ella. La resolución de problemas es la principal habilidad [que se debería cultivar entre los jóvenes]. La disciplina y la precisión que exige la programación tradicional seguirán siendo atributos transferibles valiosos, pero no serán una barrera de entrada".

Es algo que también destacaba Huang en esa charla. Tras hablar de cómo la IA podía hacer que ahora todo fuésemos programadores, indicaba que "las personas que entienden un dominio [de conocimiento] ahora pueden utilizar la tecnología. Ahora tienen un ordenador que hará lo que le digan para ayudarles a automatizar su trabajo, para aumentar su productividad, para hacerles más eficiente".

Image | World Government Summit

En Xataka | GitHub Copilot es un milagro para los programadores. Pero Microsoft pierde 20 dólares/mes por usuario con él



via Robótica e IA - Xataka https://ift.tt/OdcKyCD

Ameca: así es el robot más humano e inteligente que está causando furor en el Mobile World Congress

Los robots avanzan a velocidades de vértigo. Y, además, cada vez se parecen más a los humanos. Así lo demuestran dispositivos como Ameca , el robot humanoide más avanzado del mundo está echando la semana en Barcelona, en concreto interactuando con los visitantes del Mobile World Congress , que se celebra en la Ciudad Condal hasta el próximo jueves 29 de febrero. Se trata de un robot con forma humana desarrollado por la empresa británica Engineered Arts, que fue presentado a bombo y platillo en los últimos estertores de 2021. El dispositivo es capaz de mover los brazos y las piernas y, también, de dibujar expresiones en su rostro, que, a primera vista, parece casi completamente humano. Casi, porque es de color gris y no hay piel por encima. Noticias Relacionadas estandar No El Mobile alternativo que busca una tecnología social y justa José A. González estandar No Tecnología después de los 70: el Mobile también piensa en el público menos 'techie' Edurne Martínez Ameca está ideado, en concreto, para interactuar directamente con los humanos. No se trata, por tanto, de un robot pensado para transportar pesadas cajas o hacer labores de vigilancia. Aunque, probablemente, también podría cumplir con estas misiones. En su lugar, Engineered Arts apunta que podría dedicarse a labores de recepcionista, a ser guía en exposiciones y museos o a dar charlas. Porque sí, el robot no solo sonríe o pone el dedo índice sobre los labios para pedir silencio. También habla. El dispositivo cuenta con inteligencia artificial que le permite interactuar con quien está a su alrededor mediante el empleo de la palabra. En concreto, el modelo que se anda paseando por la feria barcelonesa ha sido entrenado con GPT-4, la misma tecnología que permite al robot conversacional ChatGPT responder cualquier pregunta que le haga el usuario. Ameca, además, cuenta con cámaras que permiten reconocer los gestos de la persona con la que está manteniendo la charla. Gracias a ellas, puede leer sus expresiones y responder adecuadamente. De la forma más humana posible, por supuesto.

via Tecnología https://ift.tt/27KfhMg

Hemos visto en acción al AI Phone. Un teléfono tan arriesgado que reemplaza las aplicaciones por un asistente basado en IA

Hemos visto en acción al AI Phone. Un teléfono tan arriesgado que reemplaza las aplicaciones por un asistente basado en IA

Estaba claro que una de las grandes protagonistas de este MWC 2024 iba a ser la Inteligencia Artificial generativa, integrada en dispositivos de todo tipo. Es la gran tendencia de estos tiempos y es lo lógico. Lo que quizás no esperábamos (aunque fue anunciado unos días antes de la feria) era ver un planteamiento como el de un smarpthone sin aplicaciones, que lo fía todo a un asistente como el de los chatbots que estamos acostumbrados a ver.

La propuesta, de Deutsche Telekom, pretende anticipar un futuro en el que las aplicaciones dejen de tener sentido en favor de una única IA que nos entienda y responda lo que necesitemos.

Mejor teoría que práctica

Hemos podido echar el guante a este terminal (un T-Phone de la teleco adaptado) en el stand que la operadora tiene en el MWC y así conocer de primera mano cómo plantea este cambio de paradigma.

Por un lado es capaz de ejecutar Stable Diffusion, un motor de IA pensado para generar imágenes a partir de texto. La idea no es tanto esa generación vía prompt, sino que sea capaz de reconocer las imágenes de nuestra galería y poder hacer ediciones sobre ellas.

Por ejemplo, si queremos enderezar una foto torcida, las esquinas estarán vacías de contenido, y lo normal es tener que sacrificar áreas de la imagen. Con esta solución podríamos rellenar artificialmente esas áreas vacías para no tener que reducir el campo de la fotografía.

Esta integración de Stable Diffusion, si bien no la habíamos visto hasta ahora en los smartphones recientes, sí es posible técnicamente en muchos de ellos (los que llevan chips Snapdragon 8 Gen 3 o Mediatek Dimensity 9300), solo que los fabricantes no la están llegando a implementar.

Ai Phone Telekom 2 Ai Phone Telekom 2 La demo de Stable Diffusion, necesitó medio segundo para generar esta imagen de un coche. Imagen: Xataka.

Y ahora pasemos a la gran promesa de este dispositivo: el reemplazo de las aplicaciones por su propio chatbot. En realidad es un puro asistente como los que estamos acostumbrados a utilizar. Solo que en lugar de ser una opción más en el terminal, es el único camino posible.

Por ejemplo, en lugar de abrir Amazon y buscar "raquetas", le preguntamos por raquetas, ya que queremos comprar una, y nos mostrará los resultados de ese producto en Amazon. A partir de ahí sí es cierto que es más conversacional: podemos hacerle preguntas o peticiones sobre esos resultados, como de qué material está hecha una de ellas, o pedirle que solo muestre resultados de menos de 200 euros.

Lo mismo con peticiones más generales, como obtener una lista de ideas para hacer un regalo o sugerencias para irnos de vacaciones durante diez días. A partir de sus respuestas podemos ir refinando lo que obtenemos.

Ai Phone Telekom 3 Ai Phone Telekom 3 Respuestas a la petición "Recomiéndame un regalo para mi hijo, a quien le encanta el tenis". Imagen: Xataka.
Ai Phone Telekom 4 Ai Phone Telekom 4 Ante todo, el AI Phone sigue siendo un teléfono de una operadora. Imagen: Xataka.

Es una curiosidad y en cierta forma un avance, pero es complicado pensar en un escenario que erradique las aplicaciones en favor de los asistentes, que son estupendos complementos para nuestro teléfono, pero no tan perfectos como para hacer que nos olvidemos de las apps.

Precisamente las aplicaciones han sido uno de los grandes motores de la industria móvil durante los últimos quince años. Han pasado de ser una forma de distribución de software a ser una industria en sí misma —en 2022 rozó el medio billón de dólares en facturación global—, y lo han conseguido a base de combinar utilidades y funciones que las hacen convenientes y apropiadas de usar. Las expectativas para el futuro siguen hablando de un crecimiento sostenido.

Preguntar a un asistente por raquetas para luego ir acotando la solicitud hasta dar con una aceptable puede tener su punto, pero en muchas ocasiones lo que querremos es acceder a esos jardines controlados por una aplicación y aprovechar sus funciones específicas.

Ahora queda ver cómo evolucionará esta propuesta, si es capaz de refinar su experiencia (no olvidemos que estamos frente a una primera versión que ni siquiera es comercial) y si puede ir contando con los apoyos suficientes. Pero queda mucho trabajo por hacer para que seamos capaces de olvidarnos de las aplicaciones. Incluso recurriendo a algo tan convincente como la IA.

En Xataka | He probado la IA generativa del Xiaomi 14 Ultra. No sé si me encanta o si me da miedo

Imagen destacada | Xataka



via Robótica e IA - Xataka https://ift.tt/UKGYneZ