jueves, 4 de julio de 2024

El robot humanoide de Figure ya es capaz de trabajar de manera autónoma en una fábrica, así que lo está haciendo en BMW

El robot humanoide de Figure ya es capaz de trabajar de manera autónoma en una fábrica, así que lo está haciendo en BMW

Estamos presenciando en directo como la robótica evoluciona y, de alguna u otra forma, se entrelaza con nuestras vidas. Aún no podemos ir a una tienda a comprar androides avanzados al más puro estilo ‘Detroit Become Human’, pero probablemente un aspirador Roomba, Conga o de otra marca nos ayuda a mantener limpio el suelo de casa. En paralelo, la mayor parte de los coches que nos rodean seguramente provienen de líneas de producción altamente robotizadas.

La robótica es una realidad desde hace mucho tiempo en el sector automotriz. Si bien la Revolución Industrial marcó un antes y un después en los procesos de producción, no fue hasta la década de 1960 que comenzaron a popularizarse los robots industriales, que comenzaban a asumir tareas pesadas para los humanos, como la soldadura, el montaje y el remachado de piezas. Ahora parecer estar acerándose el turno de un nuevo tipo de robot, el robot humanoide.

Un robot humanoide en la línea de producción

A lo largo de los últimos años hemos visto un notable esfuerzo de varias compañías para desarrollar robots humanoides, es decir, máquinas con una apariencia similar a la humana. Los ejemplos son numerosos. Desde Optimus Gen 2 de Tesla hasta CyberOne de Xiaomi, pero los hemos visto muy pocas veces en acción en escenarios reales. Ahora, una compañía estadounidense llamada Figure ha puesto a trabajar su avanzado robot en una fábrica de coches de BMW en Carolina del Sur.

En enero de este año la firma concretó un acuerdo con BMW Manufacturing para despegar sus robots en líneas de producción automotriz. Y esto es realmente interesante, porque, al menos conceptualmente, se busca automatizar todavía más el proceso de fabricación de vehículos, un proceso en el que, como hemos visto, también intervienen robots industriales. En cualquier caso, puede que te preguntes: ¿por qué robots con forma humana?

Figure Bmw 2 Figure Bmw 2

Según lo que defiende Figure y otras compañías del sector es que hay muchos entornos que están diseñados para los humanos. No solo en fábricas, sino en el mundo en general. Los robots humanoides, al tener una forma similar a la humana, podrían asumir algunas tareas “difíciles, inseguras o tediosas” sin modificar los entornos existentes. Al mismo tiempo, podrían mejorar la eficiencia de la producción.

Figure Bmw 4 Figure Bmw 4

El robot de Figure, llamado Figure 01 y que podemos ver en las imágenes de este artículo, es lo que denominan un “robot humanoide de propósito general”. ¿Qué quiere decir exactamente esto? Pues bien, que no ha sido diseñado para una tarea específica, por ejemplo, montar cierta pieza en una fábrica, sino que puede hacer muchísimas cosas, como interactuar con humanos y hacer tareas del hogar.

Figure Bmw 1 Figure Bmw 1

Por consecuencia, el robot también puede moverse por diferentes habitaciones, abriendo puertas, subiendo y bajando escaleras, levantando cajas y más. Este conjunto de habilidades es el que ahora está a prueba en la factoría de BMW en la ciudad californiana de Spartanburg. Resulta sorprendente ver todo lo que ha evolucionado el robot desde que fuera presentado en febrero de 2022.

Figure 01 manipula piezas en la fábrica de BMW gracias a una red neuronal que asigna píxeles a cada una de las acciones. Este sistema, además, se encarga ofrecer precisión en cada movimiento. Además, aseguran, el robot es capaz de corregir sus propios errores, por ejemplo, su una pieza queda ubicada de manera incorrecta. Aquí, cabe señalar, no hay control remoto alguno, el robot funciona de forma autónoma.

Ciertamente, los robots humanoides todavía tienen mucho por mejorar. Figure 01 realiza sus tareas con movimientos lentos y está atado de un cable de suministro eléctrico. Tendremos que esperar para saber si los robots humanoides finalmente llegaron para quedarse. Elon Musk, CEO de Tesla, cree que sí, de hecho apunta a que la compañía podría valer más que Microsoft o Apple gracias a su robot Optimus

Imágenes | Figure AI

En Xataka | Europa aún tiene muchas cosas que decir en el desarrollo de la IA: Moshi es uno de sus mejores argumentos



via Robótica e IA - Xataka https://ift.tt/wrxdTFZ

Moshi, el asistente de IA que habla en tiempo real, desafía a Silicon Valley desde Europa

Moshi, el asistente de IA que habla en tiempo real, desafía a Silicon Valley desde Europa

Kyutai, una startup francesa respaldada por grandes nombres del mundo tecnológico y financiero, ha lanzado Moshi, un asistente de IA que puede hablar y escuchar en tiempo real, algo similar a lo que prometió OpenAI con GPT-4o pero que ha tenido que atrasar.

Por qué es importante. Moshi representa un salto en la IA conversacional al ofrecer capacidades que OpenAI todavía no ha podido implementar. Junto a Mistral representa el creciente papel europeo en la carrera de la IA.

El contexto. Kyutai fue fundada en noviembre de 2023. Llegó con 300 millones de euros de inversión para entrar en la carrera de la IA con un enfoque claro: código abierto y transparencia.

Lo hizo de la mano de varios cerebros:

  • Xavier Niel: multimillonario francés y fundador de Iliad, una teleco.
  • Rodolphe Saadé: multimillonario franco-libabés y CEO de CMA CGM, gigante del transporte marítimo.
  • Eric Schmidt: expresidente ejecutivo de Google e inversor tecnológico.
  • Patrick Pérez: el CEO de Kyutai, exdirector de Valeo, proveedor de fabricantes de coches con más de un siglo de antigüedad.
  • Hervé Jégou: director científico de Kyutai, antiguo miembro de Google DeepMind y Meta.

Las claves de Moshi:

  • Es capaz de expresar 70 emociones y estilos diferentes.
  • Procesa y genera audio y texto de forma simultánea. Esto le permite "pensar mientras habla".
  • Funciona en tiempo casi real, su latencia es de 200 milisegundos.
  • Usa Helium, un modelo de lenguaje de 7.000 millones de parámetros.
  • Puede ejecutarse en un ordenador para el público generalista.

Tras la tecnología. Helium y Moshi han sido entrenador con 100.000 conversaciones sintéticas "de estilo oral", según la empresa, y ha usado veinte horas de audio de una actriz de voz llamada "Alice". No han querido desvelar su nombre completo. Por algo será.

Sus creaciones incorporan una marca de agua que indica que es contenido generado por una IA, una forma de abordar las preocupaciones éticas y de seguridad en torno al contenido sintético.

Los próximos pasos. Kyutai va a tener que buscar ese equilibrio entre innovación y seguridad que tanto está dando que hablar a proyectos anteriores. Su enfoque de código abierto puede ayudarle a acelerar.

  • Kyutai planea liberar el código fuente, el modelo de 7.000 millones de parámetros, el códec de audio y el stack completo.
  • Las versiones futuras (1.1, 1.2 y 2.0) refinarán el modelo a partir del feedback que den los usuarios.
  • La empresa está buscando una licencia lo más permisiva posible para fomentar la adopción y la innovación generalizada.

En perspectiva. Moshi representa un gran avance en IA conversacional, pero también en el equilibrio de poder en el mundo de la tecnología. Tiene el respaldo de figuras influyentes y un enfoque en transparencia y código abierto que puede redefinir el panorama de la IA.

De paso, busca desafiar el dominio de Silicon Valley desde el otro lado del Atlántico para posicionar a Europa como alguien importante en el futuro de la IA.

De momento puedes probarlo online.

Imagen destacada | Xataka con Mockuuups Studio

En Xataka | El cliente de ChatGPT para Mac es el último ejemplo de que necesitamos más seguridad en IA



via Robótica e IA - Xataka https://ift.tt/N2ey1TH

Amazon vendía sus robots Astro a empresas por 2.350 dólares. Ahora los va a dejar desactivar de forma remota

Amazon vendía sus robots Astro a empresas por 2.350 dólares. Ahora los va a dejar desactivar de forma remota

El robot Astro es uno de los dispositivos más curiosos que tiene Amazon. Este pequeño robot con Alexa y ruedas es capaz de vigilar la casa, seguirnos, detectar ruidos, intrusos, etc., pero también ha tenido una (corta) vida en el mundo de la empresa. La versión empresarial del robot, enfocada a la vigilancia y detección autónoma de actividades sospechosas, se lanzó en noviembre de 2023 por 2.350 dólares más una suscripción para desbloquear funciones.

Pues esta versión de Astro no ha debido ir demasiado bien, ya que Amazon ha decidido dejarla inoperativa a partir de septiembre. Literalmente, dejarán de funcionar tras una desactivación remota.

¿Qué ha pasado? Según expone Lindo St. Angel, vicepresidente de ingeniería de hardware de Amazon, en una circular interna (vía The Verge), Amazon ha decidido cerrar el programa Astro para Empresas para "centrar los esfuerzos por completo en desarrollar los mejores productos robóticos de consumo para el hogar". Se desconoce cuántos robots Astro habrá vendido Amazon a empresas, pero lo que sí sabemos es que su precio era de 2.350 dólares más una suscripción mensual de 99 dólares por Virtual Security Guard, para la cual había que pagar Ring Protect Pro (20 dólares) y Astro Secure (60 dólares).

Despídete de WALL-E. Amazon ha enviado un correo a los clientes de Astro para Empresas explicando que están orgullos de lo que han construido, pero que han tomado la decisión de bajar la persiana del programa. "En las próximas semanas, Amazon reembolsará íntegramente todas las compras de dispositivos Astro for Business al método de pago original". No solo eso. Según la compañía.

"También añadiremos un crédito de 300 dólares a tu cuenta de Amazon para ayudarte a encontrar una solución de sustitución para tu lugar de trabajo, además de enviarte una invitación automática al Programa Astro Day 1 Editions si deseas continuar su viaje con Astro en tu hogar".

Y es que la solución que Amazon ha encontrado para ponerle punto y final al programa de forma definitiva ha sido dejar los robots inoperativos. "El 25 de septiembre, tu dispositivo Astro for Business dejará de funcionar y tus datos personales se eliminarán del dispositivo [...] Te animamos a reciclar tu dispositivo Astro for Business y sus accesorios a través del Programa de Reciclaje de Amazon", afirman desde la empresa.

Astro For Business Astro For Business Astro for Business | Imagen: Amazon

¿No hay otra forma? Brickear un dispositivo de forma remota y dejarlo inoperativo porque el programa del que forma parte se haya cerrado es una opción, pero quizá, y solo quizá, no sea la más sostenible. Viendo que Amazon sigue apostando por Astro a nivel doméstico (hasta el punto de que regalan una invitación y 300 dólares para comprar uno a los usuarios de Astro for Business) una opción podría ser desbloquear el robot para que alguien lo pueda usar en casa. Es bastante posible que de la misma forma que se puede brickear a distancia, se pueda actualizar para habilitar su uso doméstico.

De otra manera, y a expensas de saber cuántos robots Astro for Business se han vendido y cuánto se reciclarán, es probable que varios robots de nueve kilos con un montón de tecnología y componentes se queden cogiendo polvo en una caja perdida de la mano de Dios en un almacén.

Imagen | Amazon

En Xataka | Un ayuntamiento surcoreano contrató a un robot con IA para tareas administrativas: se "suicidó" tras un año de trabajo




via Robótica e IA - Xataka https://ift.tt/RSB0jqD

El cliente de ChatGPT para Mac es el último ejemplo de que necesitamos más seguridad en IA

El cliente de ChatGPT para Mac es el último ejemplo de que necesitamos más seguridad en IA

Los modelos de IA generativa como ChatGPT son estupendos para muchas cosas, pero terribles para otras. Ya sabemos que cometen errores e inventan cosas, pero es que cada vez más vemos cómo quienes los implementan no tienen un importante detalle en cuenta: la seguridad.

ChatGPT para Mac, fatal. Hasta el pasado viernes, la aplicación de ChatGPT disponible para macOS —de momento no la hay en Windows— tenía un importante fallo de seguridad: guardaba todas las conversaciones en texto plano. Eso quiere decir que si alguien lograba acceso a nuestra máquina, podría también acceder a esas conversaciones y a los datos contenidos en ellas.

Cotilleo fácil. Un usuario llamado Pedro José Pereira Vieito demostraba en Threads cómo era posible desarrollar una pequeña aplicación que accediera a esos datos y mostrara las conversaciones a medida que iban sucediendo. Como él destacaba, además de guardar esas conversaciones en texto plano, la ubicación de esos textos tampoco estaba protegida.

OpenAI pasa de la seguridad. Lo curioso es que como señalaba Vieito, macOS lleva seis años ofreciendo un método sencillo de que cada aplicación mantenga los datos con los que trabaja en privado. "OpenAI eligió no activar el sandbox y almacenar las conversaciones en texto plano en una ubicación no protegida, deshabilitando todas estas defensas integradas [en macOS]".

Actualización para solucionarlo. En OpenAI han publicado una actualización que cifra los chats y que por tanto hace que dichas conversaciones ya no puedan ser "espiadas" por otros usuarios que no sean los propios usuarios de ChatGPT.

La IA necesita prestar más atención a la seguridad. Lo que ha sucedido con ChatGPT se une a otros escándalos recientes. El más grave es probablemente el que sacudió a Windows Recall, la nueva característica de Microsoft que nada más lanzarse demostró ser un desastre de seguridad y privacidad.

Cuidado con lo que le cuentas a tu chatbot. Existe un problema incluso más difícil de resolver: ChatGPT y sus rivales no saben guardar secretos. Se ha demostrado que estos modelos de IA generativa pueden servir para acabar revelando datos sensibles que de alguna forma acabaron formando parte de sus conjuntos de datos de entrenamiento. El problema ha acabado haciendo que se lancen versiones específicas como ChatGPT Enterprise, que teóricamente garantiza que las conversaciones con ese chatbot empresarial son absolutamente privadas.

En Xataka | La nueva empresa de Ilya Sutskever tiene un objetivo claro: crear una superinteligencia con seguridad "nuclear"



via Robótica e IA - Xataka https://ift.tt/x0jwk6r

miércoles, 3 de julio de 2024

La apuesta de Apple por la inteligencia artificial está incomodando a algunos de sus usuarios más fieles: los creativos

La apuesta de Apple por la inteligencia artificial está incomodando a algunos de sus usuarios más fieles: los creativos

El pasado 10 de junio en la WWDC 2024 Apple dio a conocer su apuesta por la inteligencia artificial (IA). La firma liderada por Tim Cook presentó Apple Intelligence, un sistema que aterrizará iOS 18, iPadOS 18 y macOS 15 Sequoia para permitir a los usuarios desde reescribir textos hasta generar imágenes de diferentes estilos, aunque el fotorrealismo quedará fuera de la ecuación por cuestiones de seguridad.

No es ningún secreto que muchas personas ―y un sector de la industria tecnológica― llevaban tiempo esperando con expectación este movimiento por parte de Apple. Después de todo, algunas de las compañías más importantes del planeta ya habían mostrado sus cartas en el juego de la IA. El anuncio, como era de esperar, generó opiniones dispares, pero el descontento de algunos no ha pasado desapercibido.

Los usuarios creativos de Apple quieren respuestas

Engadget señala que ciertos usuarios creativos de la firma de la manzana están molestos con la “falta de transparencia” que envuelve el funcionamiento de Apple Intelligence. El quid de la cuestión es la escasa información oficial que hay acerca de los datos utilizados por Apple para entrenar sus modelos de inteligencia artificial, un escenario que, cabe señalar, podríamos describir como el común denominador de la industria.

Como sabemos, los modelos de IA necesitan “alimentarse” de una ingente cantidad de datos. Estos datos, en líneas generales, son la fuente de información a través de la que pueden conocer cualquier tema del para más tarde brindar respuestas. Apple dice que ha entrenado sus modelos de IA con AppleBot. Estamos hablando básicamente de un sistema de web scraping que “raspa” la web para extraer información.

Apple Wwdc24 Apple Intelligence Hero 240610 Apple Wwdc24 Apple Intelligence Hero 240610

La firma dice que toma datos de la “web abierta”, aunque no ha ofrecido detalles sobre esto. Aquí surgen varias preguntas, por ejemplo, si se incluyen contenidos protegidos por derechos de autor o existen filtros. En cualquier caso, Apple sí ha dicho que su bot cumple a rajatabla las directivas de los archivos robots.txt para no incluir determinadas páginas en su actividad de raspado para impulsar su IA generativa.

Apple no ha dudado en explicar en profundidad sus esfuerzos para proteger la privacidad y la seguridad de los usuarios que utilicen tanto su sistema de inteligencia artificial como el de OpenAI a través de ChatGPT. Sin embargo, creativos como fotógrafos, diseñadores, escritores, entre otros, sospechan que parte de sus obras puedan haber sido incluidas en Apple Intelligence sin su consentimiento.

Como decimos, el caso de Apple no es único. En la industria de la IA hay muchos otros ejemplos de compañías que son reacias a la hora de hablar del entrenamiento de sus modelos. Si nos enfocamos en OpenAI, no sabemos a ciencia cierta con qué datos han sido entrenados GPT-4 y Sora. En el caso de Stable Diffusion sabemos que ha sido entrenado conjuntos de datos recopilados por la organización sin ánimos de lucro LAION.

Imágenes | Apple

En Xataka | Era cuestión de tiempo que alguien demandara a una IA creativa por vulnerar la propiedad intelectual

En Xataka | Los modelos de IA están entrenándose con fotos de niños. Y da igual que los padres traten de evitarlo



via Robótica e IA - Xataka https://ift.tt/eULXFkn

Los modelos de IA están entrenándose con fotos de niños. Y da igual que los padres traten de evitarlo

Los modelos de IA están entrenándose con fotos de niños. Y da igual que los padres traten de evitarlo

El organismo Human Rights Watch (HRW) lleva tiempo vigilando cómo la tecnología puede amenazar nuestros derechos y libertades, y ahora ha denunciado un nuevo problema, esta vez relacionado con la IA. Y lo más preocupante es quiénes son las víctimas de esa amenaza: los niños.

Qué hacían esas fotos de niños ahí. Una investigadora de HWR llamado Hye Jung Han descubrió el mes pasado algo inquietante. El conjunto de datos (dataset) LAION-5B, muy popular para el entrenamiento de modelos de IA, contenía una serie de 170 fotos de niños brasileños. Las imágenes procedían de blogs sobre temas parentales y personales, pero incluso había fotogramas de vídeos de YouTube poco vistos, posiblemente subidos para ser compartidos con amigos y familiares, indicaron en Wired. Los términos de servicio de YouTube prohíben capturar información que pueda identificar a una persona salvo en casis excepcionales, pero el daño parece estar hecho ya, como vimos en el pasado.

Ahora han descubierto más. La misma investigadora ha encontrado otras 190 fotos de niños, esta vez procedentes de Australia. Las imágenes recorren toda la duración de la etapa infantil: desde bebés nada más nacer hasta niñas en bañador en un carnaval, pasando por niños haciendo pompas. Hay fotos de niños tribus indígenas australianas, pero en todas ellas hay un dato preocupante: los padres trataron de evitar que esas fotos quedaran expuestas al público.

Fotos robadas. En este nuevo descubrimiento se especifica cómo las fotos fueron vistas por poca gente y "tenían ciertas medidas de privacidad". No parecía posible encontrarlas con una búsqueda online, y se publicaron en blogs personales o sitios para compartir vídeos. Otras fueron publicadas por los colegios o por fotógrafos contratados por familias. "Algunas fueron subidas años o incluso una década antes de que LAION-5B fuera creado", destacan en este organismo.

Niños identicables. La investigación destacaba cómo las URLs en el conjunto de datos a veces revelan información sobre los niños, incluyendo nombres o ubicaciones donde fueron tomadas las fotos. De una foto con la descripción "dos niños, de 3 y 4 años, sonriendo de oreja a oreja mientras sostienen pinceles frente a un colorido mural" la investigadora fue capaz de obtener "los nombres completos y edades de ambos niños, y el nombre de la guardería a la que iban en Perth, en Australia Occidental". No había información sobre los niños en otros sitios en internet, lo que parece dejar claro que lso padres tomaron medidas para tratar de evitar que los niños fueran identificados.

Y seguramente esto sea solo la punta del iceberg. Como explican en HRW, sus investigadores solo han podido revisar "menos del 0,0001 % de las 5.850 millones de imágenes y descripciones de ese conjunto de datos". Han explicaba cómo "es alucinante que eso saliera de un conjunto aleatorio de unas 5.000 imágenes, y que de ellas inmediatamente aparecieran esas 190 fotos de niños australianos. Uno esperaría encontrarse con más fotos de gatos que fotos personales de niños" teniend o en cuenta que LAION-5B es teóricamente "un reflejo de toda internet".

La IA no sabe guardar secretos. Para HRW los modelos de IA son un peligro porque ya se ha demostrado que es posible recolectar información sensible y "rescatar" datos sensibles —como registros médicos— que acabaron en esos datasets con los que son entrenados.

Qué dicen los creadores de LAION-5B. Los creadores de este conjunto de datos forman parte de LAION, una ONG que deja claro que tiene una "política de tolerancia cero con el contenido ilegal". Uno de sus portavoces, Nathan Tyler, comentó en Ars Technica que están trabajando para resolver el problema, pero eliminar esas imágenes es un proceso lento y además poco efectivo. Como dice Han, eliminar los enlaces de los conjuntos de datos no cambia los modelos de IA que ya han sido entrenados con este dataset. "No puden olvidar los datos con los que se han entrenado, incluso si esos datos se borraron después del conjunto de datos [de entrenamiento]".

Imagen | Robert Collins

En Xataka | YouTube considera una violación de la privacidad que alguien use una IA para suplantarnos. Y lo podremos denunciar



via Robótica e IA - Xataka https://ift.tt/MYSrpUl

Google prepara su propio Recall, según Android Authority. Y a priori nos gusta mucho más que el de Microsoft

Google prepara su propio Recall, según Android Authority. Y a priori nos gusta mucho más que el de Microsoft

El próximo 13 de agosto Google presentará sus nuevos Pixel 9, pero junto a las novedades en hardware se esperan también cambios importantes en el software de estos dispositivos. Y especialmente en un área: el de la inteligencia artificial, que se convertirá en protagonista de este lanzamiento. Según Android Authority habrá varias novedades, pero sobre todas ellas destaca una función muy especial y que ya causó polémica recientemente en Microsoft.

Inclúyeme. Además de funciones ya presentadas e integradas en los Pixel y algunos otros como Gemini o "Rodear para buscar", una de las novedades de la plataforma "Google AI" será "Add me", una función que según las capturas filtradas se asegurará de que todo el mundo está incluido en las fotos grupales. La opción parece una evolución de la opción "Mejor toma" ("Best take") que permitía que tras una ráfaga a un grupo todos los que salen en esa foto salgan sin ojos cerrados o demasiado serios.

Google Ai1 Google Ai1

Studio. Otra de las opciones destacadas será "Studio", cuya descripción apunta a un modelo de IA generativa de imágenes que podría ser análogo al Image Playground de Apple. Probablemente contemos aquí con una forma sencilla (pero también limitada) de generar imágenes mediante IA para incluirlas en todo tipo de situaciones.

Screenshots es el "Recall Lite" de Google. La opción que más llama la atención es sin duda "Screenshots" ("Capturas de pantalla"), sobre todo porque según las imágenes filtradas lo que se ofrecerá es algo muy parecido a lo que proponía Microsoft con su Windows Recall. Si la activamos, indican en Google, "almacenará y procesará detalles útiles para convertir [ese catálogo de capturas] en una librería indexada que te permitirá encontrar cualquier cosa en tus capturas de pantalla".

Captura De Pantalla 2024 07 03 A Las 9 51 14 Captura De Pantalla 2024 07 03 A Las 9 51 14 Fuente: Android Authority.

Registra lo que capturas, pero lo capturas tú. La diferencia fundamental entre Recall y Screenshots es que tú eliges qué información quieres que recuerde el sistema. En Windows Recall esas capturas se realizan constantemente y se van almacenando, indexando y etiquetando. En Google Screenshots eres tú el que hace la captura cuando quieres, de forma que solo se almacenan, indexan y etiquetan las que tú quieres que el sistema recuerde y clasifique.

Evitando la polémica. De confirmarse, este funcionamiento es mucho más cauteloso que el que planteaba Microsoft, que con Recall pretende registrar absolutamente todo lo que hacemos en nuestro ordenador. Aunque ellos aseguran que la privacidad de los datos es total y estos se guardan y procesan en local, las suspicacias son inevitables, sobre todo porque esas capturas constantes pueden incluir información sensible como contraseñas o números de cuenta.

Una implementación acertada. La forma de actuar de Google aquí parece especialmente acertada, sobre todo después de las críticas que generó Recall. En su implementación inicial era un desastre de privacidad, pero Microsoft reaccionó corrigiendo varios problemas y apostando por un despliegue mucho más cauteloso. De hecho, en última instancia han acabado retrasándolo.

Google a la carrera. Los lanzamientos de los Pixel solían producirse en octubre, pero la empresa ha decidido adelantar dos meses la presentación de los Pixel 9, y todo probablemente para poder ganar terreno en la carrera por la IA. Las funciones de Googel AI parecen aspirar a ser una especie de "mezcla mejorada" de lo presentado por Apple o Microsoft en sus respectivas propuestas.

Imagen | OnLeaks

En Xataka | Parecía que en 2024 Windows y macOS se iban a inundar de funciones de IA. Lo único que tenemos son migajas



via Robótica e IA - Xataka https://ift.tt/uFIoYSa

martes, 2 de julio de 2024

Un ayuntamiento surcoreano contrató a un robot con IA para tareas administrativas: se “suicidó” tras un año de trabajo

Un ayuntamiento surcoreano contrató a un robot con IA para tareas administrativas: se “suicidó” tras un año de trabajo

En Corea del Sur, la robótica desempeña un papel muy importante. La tierra de compañías como Samsung, Hyundai o LG tiene la mayor concentración de robots del planeta, por lo que no es extraño ver a este tipo de máquinas realizando tareas en fábricas, cuidando ancianos o incluso dirigiendo orquestas.

La tendencia a incorporar robots en diferentes ámbitos ha llegado a tal punto que el ayuntamiento de Gumi, en la provincia de Gyeongsang, nombró su primer funcionario robótico en agosto del año pasado. El aparato, apodado “robot supervisor”, acaba de protagonizar un incidente que no ha pasado desapercibido.

El robot que cayó por una escalera

Según la Agencia de Noticias Yonhap, el robot se encontraba realizando tareas administrativas el pasado 27 de junio cuando, de pronto, cayó por una escalera de dos metros de altura y resultó severamente dañado. Este fue encontrado fuera de servicio, hecho trizas con varias de sus piezas desperdigadas en el lugar de la escena.

Como señala YTN, la noticia ha provocado una infinidad de comentarios en las redes sociales. Algunos usuarios surcoreanos han calificado al episodio como “el primer suicido de un robot del país” mientras que otros han publicado mensajes del estilo “descansa en paz, chatarra” o “así de aterrador es el exceso de trabajo”.

Más allá de las especulaciones, las autoridades han iniciado una investigación formal para identificar las causas del incidente para evitar que vuelva a suceder algo parecido. Después de todo, el aparato podría haber acabado golpeando a una persona durante su caída. Además, el ayuntamiento pagaba una mensualidad por sus servicios.

Robot Suicida Corea Del Sur 2 Robot Suicida Corea Del Sur 2

El contrato establecía un desembolso de 2 millones de wones (unos 1.343 euros) por mes a Bear Robotics, la compañía propietaria del robot. La función principal de este era moverse entre los pisos 1 y 4 del ayuntamiento para entregar documentos. Trabajaba todos los días de 9 de la mañana a 6 de la tarde y tenía su propia tarjeta de identificación oficial.

Si bien el robot estaba impulsado por inteligencia artificial (IA), es poco probable que haya tenido un “despertar” que le haya llevado a arrojarse conscientemente por la escalera. Algunos testigos que presenciaron el accidente le dijeron a AFP que “vieron al robot dando vueltas”, probablemente dando signos de un comportamiento errático.

Los funcionarios han dejado en claro que echarán de menos a su compañero robótico. Dijeron que “era oficialmente” uno de ellos y que “funcionó diligentemente” el tiempo que estuvo operativo. El ayuntamiento, no obstante, ha dicho que, al menos por ahora, no están pensando en reemplazar al robot siniestrado.

Imágenes | Ayuntamiento de Gumi

En Xataka | OpenAI prepara el terreno para GPT-5: Altman promete un "salto significativo"



via Robótica e IA - Xataka https://ift.tt/isrxm9c

Amazon invertirá 100.000 millones de dólares en la próxima década, según WSJ. Y todo para ganar la batalla de la IA

Amazon invertirá 100.000 millones de dólares en la próxima década, según WSJ. Y todo para ganar la batalla de la IA

Son muchos los rumores que apuntan a anuncios importantes de Amazon en el terreno de la inteligencia artificial cuando pase el verano. Sin embargo la ambición de la empresa parece que va mucho más allá, y sus directivos están pensando a lo grande y a largo plazo.

100.000 millones de dólares. Esa es la cifra que según The Wall Street Journal invertirá Amazon a lo largo de la próxima década. Y el foco no estará en su actual plataforma de comercio electrónico, la más importante del mundo. No. El protagonismo absoluto será la inteligencia artificial.


Centros de datos al poder. La inversión servirá para crear nuevos centros de datos que puedan sostener toda su ambición en el campo de la inteligencia artificial: la capacidad de cálculo en la nube que previsiblemente se necesitará hará que teóricamente Amazon esté muy bien preparada para afrontar ese futuro.

AWS ya era importante. Lo será más. Según un informe de la consultora Dell'Oro Group citado en WSJ, los gastos de Amazon en centros de datos, incluidos los arrendamientos, alcanzó el año pasado el nivel más alto de la década con un 53%. La infraestructura de sus AWS no para de aumentar, y el auge de la IA hará que previsiblemente ese crecimiento vaya a más, y no a menos.

Servicios, servicios, servicios. La división en la nube de Amazon lleva muchos años siendo la protagonista de sus ingresos, y los servicios relacionados con la IA podrían catapultar dichos ingresos. En Amazon estiman que esta tecnología produzca ingresos de decenas de miles de millones de dólares en los próximos años.

Microsoft y Google se le han adelantado. Amazon es hoy por hoy la empresa con la infraestructura en la nube más importante del mundo, pero curiosamente han sido sus dos rivales las que se han convertido sus plataformas en las referentes iniciales para poder sacar provecho de servicios de IA. Azure y Google Cloud se han convertido en protagonistas para desarrolladores de soluciones de este tipo mientras Amazon, que ha llegado algo tarde a la batalla, trata ahora de recuperar terreno.

Jassy lo tiene claro. Andy Jassy, CEO de la compañía, fue el máximo responsable de AWS antes de coger el testigo de Jeff Bezos. Tiene claro que tanto AWS como la IA son vitales para el futuro el futuro de la compañía, y en mayo nombró un nuevo CEO de AWS. Se trata de Matt Garman, un directivo con experiencia en ingeniería que precisamente ha elegido para que se centre el futuro de AWS en la IA.

En Xataka | Aragón es la niña bonita de Amazon Web Services en España: van a invertir otros 15.700 millones de euros en la región



via Robótica e IA - Xataka https://ift.tt/12qSkbf

OpenAI prepara el terreno para GPT-5: Altman promete un "salto significativo"

OpenAI prepara el terreno para GPT-5: Altman promete un "salto significativo"

Sam Altman, CEO de OpenAI, ha anticipado que GPT-5 supondrá un "salgo significativo" respecto a GPT-4, aunque también ha advertido que queda mucho trabajo por delante.

Por qué es importante. GPT-5 es el lanzamiento más esperado en IA generativa de cara tanto al consumidor final, cliente de ChatGPT, como de cara a las empresas que usan la API.

Promete superar muchas de las limitaciones actuales de GPT-4 y abrir nuevas posibilidades de aplicación en muchos campos, además de ganar en inteligencia y capacidad de respuesta.

El contexto. En una entrevista durante el Festival de Ideas de Aspen, Altman dio algunas pistas sobre el desarrollo de GPT-5, según reporta Windows Central.

  • Mejoras notables en razonamiento y fiabilidad.
  • Capacidad multimodal: texto, imágenes y vídeo.
  • Lanzamiento previsto para finales de 2024 o principios de 2025.

Y una posibilidad muy esperada y cada vez más factible: que introduzca agentes autónomos de IA.

Gpts Gpts

En detalle. Altman ha sido crítico con GPT-4, describiéndolo como "ligeramente vergonzoso" y admitiendo que a veces comete errores "que ni un niño de seis años cometería".

Esto subraya la ambición de OpenAI por conseguir mejoras importantes con GPT-5. No es solo una mejora del producto, sino dejar atrás las carencias que incluso avergüenzan a su CEO.

Entre líneas. El desarrollo de GPT-5 afronta grandes desafíos:

  • Problemas algorítmicos y de datos complejos.
  • Escala del modelo mucho mayor que en versiones anteriores.
  • Necesidad de una mejora radical de las capacidades de razonamiento

Altman ha comparado el proceso con el desarrollo del primer iPhone: "Todavía tenía errores, pero era lo suficientemente bueno para ser útil". Y una curiosidad: desde OpenAI apuntaron que el ChatGPT actual "será ridículamente malo" en comparación con lo que veremos en los próximos doce meses.

Una clara alusión al salto que supondrá GPT-5.

¿Y ahora qué? Aunque inicialmente se especuló con un lanzamiento en verano de 2024, Altman enfrió estas expectativas. No hay una fecha oficial concreta pero nos iremos, en el mejor de los casos, a finales de año.

También conviene moderar las expectativas de forma preventiva. Durante los meses previos a GPT-4 muchos asumimos unas capacidades mucho más altas que lo que realmente supuso su llegada, confiando en el número de parámetros como el indicador de sus habilidades.

El salto fue notable, pero no para tanto. Puede ocurrir algo similar con la quinta versión.

Imagen destacada | Wikimedia Commons

En Xataka | Runway se adelanta a OpenAI y lanza el generador de vídeos Gen-3 Alpha antes que Sora: ya se puede usar desde el navegador



via Robótica e IA - Xataka https://ift.tt/gVab16v

lunes, 1 de julio de 2024

Runway se adelanta a OpenAI y lanza el generador de vídeos Gen-3 Alpha antes que Sora: ya se puede usar desde el navegador

Runway se adelanta a OpenAI y lanza el generador de vídeos Gen-3 Alpha antes que Sora: ya se puede usar desde el navegador

El mundo de la inteligencia artificial generativa se está volviendo cada vez más interesante. Hace dos semanas Runway presentó un modelo de generación de vídeos llamado Gen-3 Alpha que, por lo que pudimos ver en el material compartido, se posicionaba como un competidor directo de Sora de OpenAI.

La compañía no precisó una fecha de lanzamiento, pero dijo que Gen-3 Alpha estaría disponible “en los próximos días”. El tiempo ha pasado y esta prometedora herramienta finalmente está disponible a nivel global. Cabe señalar, eso sí, que para poder utilizarla será necesario contar con una suscripción de pago.

Gen-3 Alpha ya está disponible

Runway dice que Gen-3 Alpha es el primero de una nueva serie de modelos entrenados en una infraestructura multimodal. El mismo presume de muchas mejoras en relación a sus antecesores (Gen-1 y Gen-2) lanzados en 2023. Se ha dado un salto en los apartados calidad de imagen, consistencia y movimiento.

Además, para ayudar a crear contenidos profesionales, Runway permite utilizar este modelo con las herramientas avanzadas Motion Brush, Advanced Camera Controls, Director Mode. “Gen-3 permite que los personajes sean más consistentes y estilísticamente controlados”, dice la compañía en su página web oficial.

Runway afirma, además, que se ha asociado con varias empresas de entretenimiento y medios de comunicación para crear versiones personalizadas del modelo de generación de vídeo. Partiendo desde esta premisa, es probable que no tardemos en ver contenidos comerciales creados Gen-3 Alpha.

Runway 12 Runway 12

A principios de la semana pasada apareció en escena el primer anuncio comercial creado con Sora. Si bien el generador de vídeos de OpenAI todavía no está disponible para el público en general, algunos estudios tienen acceso a una versión preliminar que les permite ir probándola e incluso publicando sus trabajos.

Precio Runway Precio Runway Utilizar

Gen-3 Alpha de Runway, como decimos, ahora está disponible para todo el mundo a través de runwayml.com, pero no de manera gratuita. Todos aquellos interesados en utilizar este modelo de última generación deberán pagar por una suscripción. Hay dos opciones: una mensual de 15 dólares y otra anual de 144 dólares.

La plataforma de Runway, no obstante, permite utilizar de manera gratuita a su modelo anterior, Gen-2. Para algunos usuarios puede ser un buen comienzo, aunque también se en encontrarán con limitaciones, como clips de corta duración y baja calidad. Definitivamente, Runway quiere ganar suscriptores con sus productos.

Imágenes | Runway

En Xataka | El precio a pagar por tener IA es el saqueo de todo el contenido de Internet. Y Perplexity es solo el último ejemplo



via Robótica e IA - Xataka https://ift.tt/hRHYmE4

SK Hynix es un gigante de los semiconductores. Y va a invertir 75.000 millones de dólares para seguir siéndolo

SK Hynix es un gigante de los semiconductores. Y va a invertir 75.000 millones de dólares para seguir siéndolo

No es tan conocida como Intel, AMD, Qualcomm o Samsung, pero SK Hynix —la segunda en importancia tras esta última en su país de origen— ha ido ganando más y más relevancia en un sector que ha ganado más y más peso en los últimos años: el de los chips de memoria.

Memorias por doquier. La firma surcoreana, parte del conglomerado SK Group, se centraba hasta ahora en chips para módulos DRAM y también para memorias flash para unidades SSD, pero ahora van a centrarse en el segmento de moda, y lo van a hacer a lo grande.

75.000 millones de dólares. Como indican en Bloomberg, SK Hynix planea invertir 103 billones de won (74.800 millones de dólares) de aquí hasta 2028. Los responsables de la firma realizaron dicho anuncio en una reunión estratégica de dos días que tenía como objetivo compensar las pérdidas que está sufriendo la división de baterías de coches eléctricos de SK Group.

La IA vuelve a ser protagonista. De esa gigantesca inversión, 82 billones (el 79,6%) estará dedicada al desarrollo y producción de chips de memoria HBM, utilizados masivamente en las tarjetas gráficas profesionales de NVIDIA que se usan como aceleradoras de inteligencia artificial.

Un CEO en problemas. Chey Tae-won, presidente de SK Group, espera que los planes sean un éxito, algo que es especialmente delicado para él. Según revelan en Bloomberg, su acuerdo de divorcio ha hecho que necesite 1.000 millones de dólares para cerrar el proceso legal.

Fábricas en 2028. Además del anuncio de estas inversiones, ya tiene en marcha dos proyectos importantes. El primero, la inversión de 3.870 millones de dólares para una planta de proceso avanzado de chips de IA en Indiana, EEUU. El segundo, otra inversión mucho mayor en Corea del Sur, de 14.600 millones de dólares. En este caso el objetivo es crear un nuevo complejo de fabricación de chips de memoria que refuerce su capacidad actual.

Samsung y SK Hynix son reinas y señoras. Las dos firmas surcoreanas son responsables de nada menos que el 74% del mercado global de chips DRAM y del 51% del mercado de chips NAND flash. Estamos pues ante una empresa que, aun estando por detrás de Samsung en relevancia, sigue siendo absoluta protagonista de estos mercados.

Y Corea del Sur va a darles un empujón. Hace unas semanas el gobierno surcoreano anunció un paquete de ayudas por valor de 19.000 millones de dólares para sus empresas de semiconductores. Es una medida similar a las que están poniendo en marcha en EEUU, China o en la Unión Europea. No perder el tren de esta industria es cada vez más relevante, y los gobiernos nacionales no quieren despistarse en este terreno.

En Xataka | NVIDIA no da abasto: triplicará la producción de sus chips H100 para IA ante una demanda demencial



via Robótica e IA - Xataka https://ift.tt/p3RDXvY

El precio a pagar por tener IA es el saqueo de todo el contenido de Internet. Y Perplexity es solo el último ejemplo

El precio a pagar por tener IA es el saqueo de todo el contenido de Internet. Y Perplexity es solo el último ejemplo

Midjourney y ChatGPT parecen mágicos. Crean obras digitales y textos de una forma asombrosa, y aunque a menudo meten la pata, sus resultados son a menudo convincentes e incluso impresionantes. Esa foto parece del Papa con abrigo de Balenciaga sigue pareciendo real, y ese código en Python funciona. Insisto. Parecen mágicos.

Pero tanto estos modelos de IA generativa como sus competidores no son mágicos. Son loros estocásticos que hacen uso de patrones estadísticos. No entienden lo que crean o generan. Y además, todo lo que hacen está basado en algo aún más importante.

Robar.

Si está en internet, puedo usarlo para mi IA

Es lo que están haciendo desde el principio. Las grandes empresas de IA necesitan ingentes cantidades de datos para entrenar a sus modelos, así que lo que han hecho es, sencillamente, cogerlos de internet. Sin avisar, sin pedir permiso, y sin aclarar luego qué datos habían usado.

Ninguna empresa de IA aclara cómo ha entrenado a esos modelos. No sabemos con exactitud de dónde han sacado toda la información. ¿Qué libros, sitios web, o imágenes han incluido en el entrenamiento? La transparencia es prácticamente nula.

Ninguna lo aclara del todo, y todas las empresas se escudan en el concepto del "uso justo" (fair use). Este concepto desarrollado en el derecho anglosajón permite el uso limitado de material protegido sin que sea necesario pedir permiso por hacerlo.

Esa recolección masiva y voraz de datos ha hecho que muchas empresas de IA comiencen a tener problemas legales. Las demandas por posibles violaciones de propiedad intelectual comenzaron a llegar muy pronto y se fueron haciendo cada vez más frecuentes.

¿Qué comenzaron a hacer las empresas de IA ante esas demandas (o la amenaza de que acabaran afectándolas)? Llegar a acuerdos con algunos proveedores de contenidos.

Antes algunas cogían todo lo que podían de plataformas como Reddit, pero ahora tanto Google como OpenAI han resuelto sus diferencias tras negociar distintos tipos de quid pro quo. 

Y lo que ha pasado con Reddit ha pasado con grupos editoriales como Prisa o Le Monde, y seguirá ocurriendo en el futuro: así las grandes de la IA se protegen y pueden seguir alimentando sus modelos sin parar.

Perplexity y las gotas que colman los vasos

Pero hay comportamientos aún más conflictivos. Tenemos un ejemplo perfecto en Perplexity, que poco a poco se convirtió en una sorprendente alternativa a Google e incluso a la Wikipedia.

Perplexity Perplexity

Aquí nos hemos encontrado no con un motor de búsquedas, sino, como apuntaban en The Verge, con un "motor de respuestas". El problema es cómo ha logrado hacer lo que hace.

Que no es ni más ni menos que robando.

Lo ha hecho aún en mayor medida que algunas de sus competidoras, porque esta startup está haciendo cosas inauditas. En primer lugar, está plagiando artículos enteros de otros medios. Lo hizo con un tema de Wired, por ejemplo.

En segundo, está saltándose los muros de pago de publicaciones como Forbes para poder recolectar información relativa a ciertos temas. No solo se saltó ese muro de pago, sino que apenas citó la investigación original de Forbes y plagió los gráficos e imágenes de ese tema.

El descubrimiento generó una nueva polémica en este ámbito. En Wired directamente acusaron a Perplexity de ser una máquina de hacer mierda, pero la empresa intentó salir al paso indicando que está debatiendo la forma de compartir ingresos con las publicaciones.

Esa empresa de inteligencia artificial no es la única en saltarse esos muros: estos días se ha revelado que Poe, el chatbot de la plataforma de preguntas y respuestas Quora, también lo hacía. Mientras que algunos expertos afirman que esto es una violación clara de los derechos de autor de esos contenidos, en Quora afirman que no es así y que se basan en servicios del tipo "leer más tarde" que cumplen con la ley. 

Y entonces llegó el tercer y último descubrimiento a manos de un desarrollador llamado Robb Knight. Como explicó en su blog, en Perplexity estaban ignorando las directrices de los ficheros robots.txt que precisamente indican a los rastreadores de internet qué páginas rastrear y cuáles no.

Esos pequeños ficheros siempre han servido como forma de hacer que por ejemplo Google no mostrase en sus resultados ciertas partes de un sitio wbe, pero a los chicos de Perplexity les daba igual: ellos lo recolectaban absolutamente todo. 

Srinivas echó balones fuera: no eran ellos quienes se los saltaban, sino las empresas que habían contratado para que rastrearan la web y suministraran más y más datos para su modelo de IA. Y cómo no, Perplexity no es la única en esquivar e ignorar los ficheros robots.txt: OpenAI y Anthropic hacen exactamente lo mismo.

Esa actitud ha hecho que por ejemplo Reddit se ponga en pie de guerra contra los scrapers, aunque la cosa ya venía de lejos. The New York Times, por ejemplo, demandó a Microsoft y a OpenAI porque no quiere que un chatbot mate al periodismo. Este diario ya publicó un reportaje en abril de 2024 avisando de cómo la voracidad de empresas como OpenAI, Google o Meta estaban (supuestamente) pasándose de la raya a la hora de entrenar sus modelos.

Pero es que ahí no acaba todo.

Así lo demostraba el responsable de IA de Microsoft, Mustafa Suleyman, que en una entrevista reciente con CNBC defendía esa recolección indiscriminada de datos en internet:

"Creo que con respecto al contenido que ya está en la web abierta, el contrato social de ese contenido desde los años 90 ha sido que es de uso justo. Cualquiera puede copiarlo, recrearlo, reproducirlo. Ese ha sido el "freeware", si se quiere, ese ha sido el entendimiento".

Esa afirmación es terrible, sobre todo porque asume justo lo que están asumiendo todas las grandes de internet. Que no es más ni menos que todo lo que publicamos en internet está ahí para que ellas hagan lo que quieran con ello.

Que es precisamente lo que están haciendo.

Imagen | Xataka con Freepik

En Xataka | Los fallos no son lo que frena la IA de Google: consume en un segundo tanta electricidad como cargar siete coches eléctricos



via Robótica e IA - Xataka https://ift.tt/q8XOP9r