jueves, 30 de agosto de 2018

Huawei se “casa” con Alexa y no con Google para su primer altavoz inteligente, que además es un router 4G

Ai Cube0

Parecía que el asistente de Google había conquistado a buena parte de los productos presentados en IFA que cuentan con este tipo de tecnología, pero en Huawei han querido apostar por Alexa para un producto que combina las funciones de un router 4G con las de un altavoz inteligente.

Se trata del Huawei AI Cube, un dispositivo que permite actuar como un punto de acceso móvil (un "MiFi", en esencia) gracias a su ranura SIM, pero que además da acceso a las capacidades de Alexa como asistente para, por ejemplo, activar funciones domóticas y de control del hogar.

Es curioso como el nombre no tiene mucho que ver con el diseño del altavoz, más cilíndrico que otra cosa y que recuerda en cierta medida al Google Home. Ese formato es el que permite distribuir el sonido en todas direcciones con una cavidad sonora de 400 ml de volumen en los que también encontramos un sistema de reconomiento de voz de 360 grados para poder dirigirnos al asistente integrado desde cualquier localización.

Ai Cube 2

La función de router se aprovecha gracias a la citada ranura SIM que da acceso a redes con conectividad LTE Cat.6 (hasta 300 Mbps de descarga), y que además cuenta con conectividad WiFi 802.11ac y banda dual para que varios dispositivos puedan estar conectados sin problemas entre sí y también con esa red de datos móviles.

Ai Cube1

En Huawei destacan como esa integración de Alexa da acceso a 45.000 "skills" para aprovechar la potencia del asistente, que nos permite preguntar de todo, acceder al control multimedia o establecer alarmas, entre otras muchas opciones. La compatibilidad con dispositivos del hogar como enchufes conectados, bombillas, termostatos o dispositivos de seguridad hacen que esa capacidad sea aún más interesante.

Más información | Huawei
En Xataka | Alexa y la revolución del sistema operativo cotidiano



via Magazine - robotica-e-ia https://ift.tt/2omY1Zl

miércoles, 29 de agosto de 2018

Autómatas para pequeñas empresas

Universal Robots se coloca en cabeza en el creciente mercado de los 'cobots', que interactúan con los usuarios

via Robótica https://ift.tt/2okwGXq

martes, 28 de agosto de 2018

Los coches autónomos de Waymo son más una promesa que una realidad, según The Information

Waymo3

Muchos nos las prometíamos muy felices. Adiós al carné de conducir, adiós a las calles y carreteras atestadas de coches, adiós a (gran parte de) los accidentes y a (gran parte de) la contaminación. El coche autónomo pronto llegaría para salvarnos de una de las placenteras condenas del s.XX: conducir.

A la cabeza de esa revolución está Waymo, la empresa con Alphabet como matriz que lleva años investigando en este ámbito. Todos los indicios apuntan a que sus coches autónomos, que han recorrido millones de kilómetros, estarían ya cerca de lograr ese sueño. Pues no: todo está mucho más verde de lo que parece, cuentan en The Information, donde nos revelan cómo hay aún unos cuantos "baches" tecnológicos que superar.

¿Giro a la izquierda, sí o no?

El coche autónomo podría ser una de las grandes revoluciones de la sociedad, y Waymo parecía encaminada a liderar dichos proyectos. La realidad parece ser bien distinta según Amir Efrati, un editor de The Information que ha explicado tanto allí como en Twitter cómo diversos testimonios demuestran que los sistemas de conducción autónoma de Waymo aún están lejos de comportarse de forma totalmente eficiente.

Efrati ponía el ejemplo de una intersección en Phoenix con dos posibles giros que resultan todo un reto para el coche de Waymo aun sin ser especialmente complicados para un conductor humano.

Los coches de Waymo a menudo se detienen en la intersección incluso cuando van a girar a la derecha -una maniobra mucho más sencilla y directa-, algo que provoca el enfado de los conductores humanos, que no entienden cómo ese tipo de giro provoca que los coches de Waymo se detengan.

En otra intersección en la que el coche de Waymo tenía que girar a la izquierda, más problemas aún, porque a pesar de la buena visibilidad el coche de Waymo se detiene aún cuando no hay peligro aparente.

Las declaraciones de conductores que se encuentran a diario con los coches de Waymo parecen confirmar esa sensación de que encuentran estos vehículos molestos por esos continuos parones en situaciones aparentemente sencillas de resolver. La cosa se complica con confusiones en la señalización de las carreteras, que también provocan que los sistemas de Waymo detengan el coche y provoquen colas de conductores que lógicamente protestan -una vez más, el problema es trivial para el conductor humano- hasta que el coche resuelve la situación.

A estos problemas se le suman los fallos de calibración en los mapas en los que se basa la navegación de estos vehículos, pero también en las cámaras y los lidar integrados en el coche para la detección de todo tipo de objetos. Aunque en muchos apartados la conducción de estos sistemas autónomos ha mejorado, es evidente que estos desarrollos siguen estando aún verdes en diversas áreas.

El otro lenguaje invisible

Los expertos explican cómo por ejemplo para los coches autónomos el mayor problema es la gente. Es lo que comenta Gill Pratt, responsable del Toyota Research Institute: la IA de estos vehículos no sabe que una madre con su hijo no cruzará la calle hasta que la señalización se lo permita, pero unos adolescentes sí podrían hacerlo.

Waymo2

Lo mismo ocurre con ese lenguaje invisible entre conductores, que como explicaba uno de los trabajadores de Waymo hace que entendamos señales que no están asociadas estrictamente a las reglas de conducción. "Hay cosas y situaciones que los humanos resuelven simplemente mirándose unos a otros", indicaba.

La conclusión es que en ciertos momentos efectivamente parece que según las fuentes consultadas los coches autónomos están a la vuelta de la esquina, pero en otros queda claro que estos sistemas aún están lejos de poder ser totalmente eficaces y seguros, algo que la propia Waymo ha comprobado.

Vía | The Information | Amir Efratti (Twitter) En Xataka | Dónde está realmente el coche autónomo a día de hoy y qué han prometido las marcas en el Salón de Ginebra para el futuro



via Magazine - robotica-e-ia https://ift.tt/2wsNEqh

Un ejército de robots para vencer el miedo de los japoneses a hablar inglés

El Gobierno nipón fomentará este tipo de aprendizaje en 2019 en una sociedad donde se impone el silencio como "un ideal de urbanidad" y "el miedo a hacer el ridículo" a la hora de practicar idiomas

via Robótica https://ift.tt/2Npl3cR

Lego Coding Express: si tienes 2 años ya puedes empezar a programar jugando con un tren

Lego Education Coding Express

Lego sigue ampliando su catálogo de sistemas de juego y aprendizaje basadas en sus clásicas piezas y con el objetivo de que la programación y habilidades STEM sean algo habitual a edades muy tempranas.

Lego Coding Express es su última propuesta y está basada en el aprendizaje de la programación a partir de solo 2 años usando sus piezas de la serie para los más pequeños, Duplo.

Coding Express: piezas de colores y una cámara bastan para iniciarse en la programación

En nuestra guía de juguetes, juegos y recursos gratuitos para aprender programación sin PCs ni robots ya tenemos un invitado inesperado. Coding Express, pese a introducir a los más pequeños de la casa en conceptos básicos de la programación tales como bucles o programas, no requiere para su uso de ordenadores ni robots sofisticados. El nuevo juguete STEM, que se puede usar solo con la serie de piezas Duplo, requiere tan solo de un elemento que actúa a modo de cámara.

Esa cámara, incluida en el kit básico, es capaz de identificar los colores de las piezas que Lego ha asociado a determinadas acciones, como detenerse, encender luces, cambiar de dirección o emitir sonidos. La colocación de dichas piezas en las vías del tren constituye pues una primera aproximación de los menores para crear sus propios programas según lo que quieran que el tren haga.

Coding LEGO kids

La edad recomendada de uso es a partir de 2 años, y como es habitual en los sets de este tipo de Lego, van asociados a aplicaciones para tablet con las que seguir una serie de lecciones y planes de estudio para sacarle el mayor provecho educativo.

El nuevo juguete educativo de Lego tiene previsto que esté disponible a partir del próximo mes de octubre en EEUU y China, con un precio de 190 dólares, incluyendo la "pieza-cerebro" con cámara, los elementos de colores para programar y piezas para construir libremente. Para el resto de mercados habrá que esperar a 2019.

Más información | Lego.



via Magazine - robotica-e-ia https://ift.tt/2PLy41Z

La última gran mentira de la inteligencia artificial es hacernos bailar como profesionales

Baile

Cada vez es más difícil confiar en lo que vemos o lo que oímos, porque diversos sistemas basados en inteligencia artificial logran poner en otras bocas palabras que nunca pronunciaron y gestos que nunca hicieron.

Esos vídeos manipulados por inteligencia artificial se han convertido en un fenómeno gracias a tendencias como los célebres deepfakes, pero ahora conocemos otra vertiente, más divertida pero igualmente engañosa: con este sistema de IA cualquiera puede aparecer como un bailarín profesional que domina todo tipo de estilos.

Todos a bailar

Un grupo de investigadores de la Universidad de California en Berkeley demostraron cómo un sistema de inteligencia artificial era capaz de trasladar los movimientos de un bailarín experto grabados en vídeo a los de cualquier persona.

Con dicha solución era posible que otras personas, sepan bailar o no, logren hacer movimientos como si se tratase de verdaderos profesionales.

El resultado es sorprendente, y como explicaban los responsables de este desarrollo, "con nuestro entorno hemos creado una variedad de vídeos que permiten a amateurs no entrenados girar y virar como bailarinas, realizar patadas de artes marciales o bailar de forma tan vibrante como lo hacen las estrellas pop".

El algoritmo detecta poses a partir del vídeo de origen grabado por un bailarín experto, y a partir de esos vídeos se entrena a un sistema a través de las llamadas Generative Adversarial Networks (GAN) para producir esos resultados finales con la cara y cuerpo del bailarín amateur.

El resultado no es perfecto -hay algún salto y movimiento poco fiable durante la reproducción-, pero es una muestra de lo que se puede llegar a hacer con este tipo de sistemas, que vuelven a plantear un futuro en el que cada vez será más difícil detectar si una imagen o un vídeo es real o está generado por ordenador y por uno de estos algoritmos.

No te creas (todo) lo que veas

El ejemplpo de este desarrollo es el último de una hornada de desarrollos que demuestran que es posible alterar un vídeo o generarlo prácticamente de cero para lograr que una persona haga o diga aquello que necesitamos.

La idea se ha convertido casi en un juguete para los estudiosos del tema, que han ido mostrándonos cómo los políticos son capaces de aparecer pronunciando discursos de lo más extraño que uno no asociaría a las personas que los dicen.

El caso de Obama es uno de los más célebres, pero hay otros muchos que han dejado claro que el futuro puede acabar amenazado por el "apocalipsis informativo" de las fake news, que no solo se propagarán a través de las redes sociales con la ayuda de bots, sino que lo harán siendo más creíbles que nunca por esa capacidad de los algoritmos de inteligencia artificial.

Deep1

A este tipo de contenidos falsos generados por inteligencia artificial se ha unido esa nueva tendencia por los deepfakes, vídeos pornográficos en los que la cara de la actriz porno es sustituida por la de una actriz famosa, aunque cualquiera puede en su casa generar uno de estos vídeos con la cara de alguien conocido.

Las implicaciones son enormes y podrían dar lugar a un verdadero caos de falsas informaciones, falsos rumores y falsas acusaciones que permitirían a quien los maneja influir en la opinión de un gran número de personas y condicionar así su respuesta ante potenciales iniciativas económicas, políticas y sociales.

Luego, claro está, están estos vídeos menos agresivos que muestran cómo cualquiera es capaz de realizar movimientos de baile como un profesional, pero la conclusión es la misma en todos los casos: será mejor que empecemos a no fiarnos de lo que vemos y oímos, porque podría estar generado por una IA.

En Xataka | No creas lo que veas ni lo que oigas: 7 alucinantes vídeos en los que la IA nos engaña



via Magazine - robotica-e-ia https://ift.tt/2wi7sNM

Un robot animado en 3D asusta a las redes por el realismo de sus movimientos

La animación generada por ordenador ha sido creada con el motor del famoso videojuego Unity

via Robótica https://ift.tt/2LyPT0P

sábado, 25 de agosto de 2018

Tenemos nuevos detalles de RealDoll X, el robot sexual con inteligencia artificial, que finalmente estará disponible en septiembre

Realdoll X

En abril de este 2018 se hizo oficial el lanzamiento de la RealDoll X, la que será la primera muñeca sexual robótica con inteligencia artificial. En aquel entonces sólo se abrió la reserva de la muñeca, con precios que llegan a superar los 20.000 dólares, y hoy finalmente sabemos cuándo comenzarán los envíos y algunos detalles de su funcionamiento, incluido su inquietante 'Modo X'.

Tendrá un modo para activar la actividad sexual y las "charlas sucias"

Bautizada como 'Harmony', este robot se basa en una plataforma de inteligencia artificial desarrollada por Realbotix, la cual es una especie de chatbot que se sincroniza con nuestro smartphone u ordenador a través de una aplicación, desde donde configuraremos nuestro robot y su personalidad.

Esta aplicación también servirá para recibir actualizaciones, instalarlas en el robot y así recibir nuevas características y mejoras, como frases y reacciones a diversas situaciones. Aquí hay que recodar que el sistema principal esta instalado en la cabeza de la muñeca, por lo que toda la interacción llegará a través de conversaciones y peticiones concretas, ya que el resto del cuerpo no cuenta con ningún tipo de sensores.

Harmony

La aplicación estará disponibles en versión web, así como para Windows, Mac, iOS y Android, aunque de momento el operativo de Google es la única plataforma disponible. También cabe señalar que para el uso de esta aplicación se necesitará una suscripción anual, cuyo precio no ha sido anunciado. Al adquirir una RealDoll X, el primer año de uso será sin costo.

Cuando se anunció la muñeca sexual, se dio a conocer que incluiría un 'Modo X', que nos describían como "una programación especial que le dicta cuándo y cómo tratará a su pareja humana con amor y adoración eterna. El cual permitirá cumplir nuestras fantasías sexuales más salvajes". Hoy sabemos que este 'Modo X' es una forma de activar la actividad sexual, ya que esto "le dirá" al robot que responda con frases más subidas de tono, donde incluso nos aseguran que habrá "charlas sucias". Este modo contará con varios niveles de acuerdo a los gustos del propietario y las situaciones.

El 'Modo X' se activará desde la aplicación y serviría para diferenciar los momentos que tenemos con el robot, es decir, si está activado las respuestas serán de índole sexual, mientras que al desactivarlo sólo se entablarán conversaciones triviales con diversas temáticas.

Asimismo está el "protocolo 40058", que según la explicación consistirá en una forma de instrucción para que la que muñeca esté "comprometida en una relación amorosa, donde sus prioridades serán amar, honrar y respetar a su compañero humano por encima de todo". Este protocolo no es más que un método de personalizar a nuestro robot, ya que desde la aplicación tendremos que añadir la información con nuestra voz y una fotografía, para que así Harmony sólo nos responda a nosotros y a nadie más. Por ello, la compañía asegura que RealDoll X está diseñada para "ser nuestra compañera, amiga y amante".

La compañía asegura que el sistema de RealDoll X está diseñado para "aprender con el tiempo", como si fuese un asistente virtual, por lo que es importante la personalización inicial y el charlar con ella de forma periódica para que conozca nuestros hábitos y gustos.

Por último, RealDoll finalmente confirmó que a finales de agosto iniciarán con los envíos hacia todos esos clientes que reservaron a Harmony, por lo que deberán estar recibiendo a su robot sexual durante el mes de septiembre. Por otro lado, también adelantaron que a finales de año será posible adquirir la versión masculina del robot sexual, el cual sería entregado tentativamente a inicios de 2019.

Ahora sólo queda esperar los primeros comentarios de los clientes y las posibles reseñas.

En Xataka | RealDoll X, la primera muñeca sexual robótica y con inteligencia artificial ya está lista para salir a la venta



via Magazine - robotica-e-ia https://ift.tt/2BFUKhb

viernes, 24 de agosto de 2018

DOTA 2 aún se le resiste a la IA: los jugadores profesionales vencen a las máquinas

Openaifive

Hasta aquí hemos llegado, máquina. Nos has vencido al ajedrez o al Go, pero (de momento) no has podido con nosotros a DOTA 2.

Eso es lo que podrían haber comentado varios jugadores profesionales de DOTA 2 tras vencer al equipo OpenAI que había desarrollado un sistema de inteligencia artificial para tratar de ganar a jugadores humanos a este juego de estrategia. En un torneo con ex-jugadores profesionales chinos al mejor de tres partidas los humanos ganaron 2-0 a las máquinas. Hurra.

Falla la estrategia a largo plazo

El equipo de cinco jugadores humanos jugó contra ese equipo de máquinas impulsadas por un proyecto de inteligencia artificial llamado OpenAI Five. Lo hicieron en el conocido torneo The International 8, en el que hay un total de 11 millones de dólares para el ganador absoluto.

Openaifive2

En DOTA 2 la estrategia es distinta que en juegos como el ajedrez o el Go, y hay un componente de intuición aún más difícil de impulsar en esos sistemas de inteligencia artificial, que a pesar de todo pusieron en problemas a los jugadores humanos.

De hecho el equipo OpenAI Five logró adelantarse en el marcador en los primeros minutos, pero el equipo de jugadores humanos logró recuperarse y acabar ganando tanto esa partida como la siguiente.

Las normas para estas partidas eran algo más restringidas como un número algo más limitado de héroes y capacidades a elegir, algo que las máquinas compensaban con sus tiempos de reacción instantánea. Aunque los ingenieros trataron de ajustar el sistema para que su sistema de aprendizaje de refuerzo —que permite aprender de los errores y buscar premios a sus acciones—, la segunda partida acabó con otra derrota.

Los programadores de OpenAI Five detectaron que esas recompensas a corto plazo hacían que el objetivo final (ganar la partida) perdiera algo de peso, lo que impidió a las máquinas tener una estrategia más a largo plazo. Eso ha hecho que ahora dichos desarrolladores quieran centrarse en esa aproximación al problema, y veremos si en próximos enfrentamientos estas máquinas logran efectivamente derrotar a los jugadores humanos.

De momento, eso sí, seguimos respirando algo más tranquilos. Las máquinas no nos han superado en esto. Aún.

Vía | The Register
En Xataka | De ajedrez, máquinas y humanos



via Magazine - robotica-e-ia https://ift.tt/2BQREam

EE.UU. se lanza a la carrera para “cerrar la brecha” entre la Tierra y Marte

En su visita hoy a las instalaciones del Centro Espacial Johnson de la NASA, en Houston (Texas), Pence aseguró que la actual Administración del presiente Donald Trump busca “escribir el próximo gran capítulo” de la historia espacial y reafirmar su “compromiso” con la innovación en materia de exploración humana.

“El presidente Donald Trump ya firmó la orden que hace oficial que EE.UU. regresará a la Luna y tratará de alcanzar Marte, para lo cual construiremos el cohete espacial más poderoso que se haya diseñado nunca y que tendrá una velocidad de 7 millas por segundo (11,2 kilómetros por segundo)”, argumentó.

Pence, ante el aplauso de la audiencia en el centro espacial de la NASA, explicó que de esta forma, gracias a esta nueva nave, se podrá “estrechar la brecha” entre la Tierra y el planeta rojo, e incluso, explorar en el futuro qué hay “más allá”.

A principios de junio, la NASA dio a conocer los resultados de su investigación en busca de vida en Marte obtenidos gracias a su robot explorador Curiosity, una misión que aterrizó en ese planeta en 2012 y que había encontrado moléculas orgánicas en rocas de la superficie marciana.

En concreto, encontró material orgánico complejo en rocas formadas hace 3.000 millones de años, un hallazgo que podría indicar que ahí hubo vida alguna vez.

Objetivo Marte


Sin embargo, antes de alcanzar Marte, el Gobierno estadounidense tiene previsto instalar en torno a la Luna una plataforma orbital, cuyo precio de construcción inicial será de 500 millones dólares y que estará lista para el año 2024.

“Algunos dicen que no deberíamos pensar en volver a la Luna, que nos centremos en asuntos más cercanos. Incluso administraciones pasadas cancelaron programas para llegar a la Luna en 2020, pero eso fue un error”, se lamentó Pence.
El vicepresidente insistió durante su discurso en las críticas a anteriores gobernantes que, en su opinión, no entendieron que la exploración humana “siempre ha sido una cuestión fundamental en la historia de la nación”.
“No nos contentamos con haber dejado nuestras huellas” en la superficie lunar, aseguró.

En este sentido, definió a la NASA y, concretamente, al Centro Johnson como un “tesoro nacional”, a través del cual Estados Unidos podrá liderar el camino del hombre a las estrellas, “una vez más”.

Un halago correspondido por el administrador de la NASA, Jim Bridenstine, que agradeció “el esfuerzo y la preocupación” del Gobierno actual por el proyecto espacial.

Bridenstine destacó la creación del Consejo Nacional Espacial, del que Mike Pence es presidente, puesto que “refleja con actos lo que transmiten con sus palabras”.

Fuerza militar espacial


De este organismo, con la firma de aprobación de Trump, salió la orden al Pentágono para crear una Fuerza Espacial en el Ejército dedicada a prevenir posibles ataques desde el espacio y que se convertirá en “el sexto cuerpo de las Fuerzas Armadas”.

“Estamos preocupados por la seguridad tanto en la Tierra como en el espacio, así pues, esta unidad será una realidad en 2020. China y Rusia están desarrollando peligrosas herramientas y no podemos permitir que nos dominen”, comentó el vicepresidente.

El recelo militar siempre ha estado presente desde la creación de la NASA hace 60 años, motivo por el que Estados Unidos ha buscado liderar la innovación espacial.

Con esa mezcla entre ciencia y estrategia militar defensiva, Pence aseguró que Estados Unidos “no volverá a abandonar sus responsabilidades en el espacio” y tratará de honrar el legado de los “héroes del pasado”. EFE
jmp/hma/cfa

La entrada EE.UU. se lanza a la carrera para “cerrar la brecha” entre la Tierra y Marte aparece primero en EFE futuro.



via EFE futuro https://ift.tt/2P33VKy

LG se estrena en el mercado de los exoesqueltos con un traje que incluso sería capaz de comunicarse con otros robots

Lg Cloi Suitbot And Lg Shopping Cart Robot

Proyectos basados en exoesqueletos hay muchos, pero hoy LG ha decidido presentar el suyo, el cual nos demuestra por qué invirtió en SG Robotics el año pasado. Este nuevo traje robótico ha sido bautizado como LG CLOi SuitBot, y su objetivo principal es ayudar a los empleados de fabricas o almacenes.

Dentro de los exoesqueletos podemos encontrarnos con aquellos que ofrecen brindar fuerza a las extremidades superiores, inferiores o a todo el cuerpo. En el caso de LG se trata de algo muy similar a lo que presentó la japonesa Cyberdyne en marzo de este año, la diferencia es que LG también lo ha dotado de comunicación inalámbrica para estar conectado a otros robots o sistemas industriales.

LG CLOi SuitBot

Lg Cloi Suitbot

El nombre de CLOi tal vez nos resulte familiar, y es que LG nos presentó en el pasado CES 2018 su nueva línea de robots CLOi, la cual nos ofrecería una amplia gama de opciones, que irían desde un carrito para la compra, robots de limpieza, hasta un asistente personal para el hogar. Bueno, pues este nuevo CLOi SuitBot es una evolución de estos robots pero ahora pensando para trabajar en conjunto con un ser humano.

Según LG, este exoesqueleto fue diseñado para centrarse en el esfuerzo de las extremidades inferiores, por lo que ayudaría a disminuir la presión en las piernas y dar un mejor soporte cuando se está cargando algo, incluso mencionan que permitiría una mejor movilidad y resistencia, además de funcionar mientras estamos sentados.

De acuerdo a su descripción, el CLOi SuitBot contaría con articulaciones con "movimiento natural" y zapatos "estilo sandalia", que ayudaría a que las personas se lo puedan poner sobre la misma ropa y zapatos de una forma sencilla y en poco tiempo.

Lg Cloi Suitbot Seated

LG también mencionó que el CLOi SuitBot contará con soporte para conectarse a otros robots de la gama CLOi de forma inalámbrica, incluso se podría comunicar con otros sistemas del almacén para así coordinarse con otras personas o máquinas, creando así una gran "red de trabajo inteligente".

LG no dio a conocer el precio del CLOi SuitBot ni su fecha de disponibilidad, pero ahora durante la IFA 2018 en Berlín se harán demostraciones de su uso y se espera que tengamos mayores detalles.

En Xataka | Un exoesqueleto como uniforme de trabajo: hemos visitado una fábrica que los está probando



via Magazine - robotica-e-ia https://ift.tt/2w8okqp

jueves, 23 de agosto de 2018

Sale a subasta por primera vez una obra de arte generada por un algoritmo

Edmond

Sobre una pared blanca y enmarcado en oro, en la Galería Central de Londres de Christie's, está el retrato de un hombre vestido de negro, de estilo puritano. Sin terminar, de rostro sombrío, nos evoca al siglo XIX. Nada más lejos de la realidad: es uno de las primeras obras de arte del mundo pintadas por un algoritmo. Concretamente, el que aparece en la esquina inferior derecha. La firma del autor, a la postre.

Signature New

El algoritmo en cuestión fue diseñado por Obvious, un colectivo que une el arte con la inteligencia artificial. El nombre de la obra, Retrato de Edmond de Belamy. Forma parte de una colección de once cuadro en total que han sido creados algorítmicamente gracias a las enseñanzas a un ordenador de los tres artistas franceses que forman el colectivo, Hugo Caselles-Dupré, Pierre Fautrel y Gauthier Vernier, los tres de veinticinco años.

Datos de 15.000 cuadros y un factor discriminatorio

Su lema es "la creatividad no es solo para los humanos", y su objetivo, convencer al mundo del arte de tal convicción. La mejor forma de hacerlo, claro, es vendiendo esos cuadros. El primero fue Le Comte de Belamy, que fue comprando por un coleccionista parisino que desembolsó 10.000 euros por él. Por supuesto, también venía firmado por el algoritmo.

Comte De Balmy Main Detalle de la firma de Le Comte de Belamy. Imagen: Obvious.

Para desarrollar el algoritmo, los tres artistas alimentaron al sistema con datos de 15.000 retratos pintados entre los siglos XIV y XX. También introdujeron en el algoritmo un factor discriminatorio, pensado para distinguir entre obras hechas por un humano y obras hechas por la máquina. El sistema comenzó a generar obras que iban siendo descartadas hasta que fue capaz de engañarse a sí mismo y creer que una creación suya había sido pintada por una persona.

El sistema comenzó a generar obras con los datos de 15.000 obras hasta que fue capaz de crear una que el propio sistema consideró humana

Ahora, el Retrato de Edmond de Belamy pasa a la historia del arte y de la tecnología por ser la primera obra algorítmica del mundo que será subastada a través de la galería Christie's, donde permanece expuesta. Sus creadores esperan lograr otros 10.000 euros por ella.

Esta subasta simboliza la llegada de la inteligencia artificial al mundo del arte, y los desafíos que plantea: ¿Cómo convencer a toda una industria habituada a otros procederes de que esto también es arte? Caselles-Dupré, uno de los fundadores de Obvious, en la presentación de la subasta:

"Esta nueva tecnología nos permite experimentar sobre la noción de creatividad para una máquina, y el paralelismo con el papel del artista en el proceso de creación. Queremos que el espectador se centre en el proceso creativo: un algoritmo normalmente funciona replicando el comportamiento humano, pero aprende usando su propio camino".

La subasta tendrá lugar en octubre, y presumiblemente será un punto de inflexión simbólico para el nuevo camino de la inteligencia artificial en el arte y el debate que plantea. ¿Cuánto necesita un humano intervenir en una obra para que se considere artística? Al menos hay algún precedente optimista.

En Xataka | Esta obra de arte fue pintada por un robot y es la ganadora del concurso RobotArt 2018.



via Magazine - robotica-e-ia https://ift.tt/2LkBpBN

Jóvenes españoles en la meca tecnológica y científica de Japón

Talentos de España atraídos por las facilidades del país nipón para la investigación explican cómo han superado las particularidades de la sociedad asiática para desarrollar sus proyectos

via Robótica https://ift.tt/2o1v3Oj

miércoles, 22 de agosto de 2018

'Megalodón', un monstruo generado con inteligencia artificial y casi 10.000 núcleos en 2.500 procesadores Intel Xeon

Megalodon

Estamos en la sala de cine y sabemos que el enorme tiburón que estamos viendo en pantalla no es real, sin embargo luce como si lo fuera. Sus enormes músculos se tensan y sobresalen a medida que nada, mientras que la grasa debajo de su piel reacciona a la presión del agua cuando impacta contra la superficie. Sí, sabemos que se trata de un animal generado por ordenador en una película de verano, pero es el animal falso más realista que hayamos visto jamás.

Lo anterior se debe a que 'Megalodón', el nuevo éxito del verano, cuenta con efectos visuales que se apoyan en la inteligencia artificial y un poder de procesamiento brutal, que cuenta con el apoyo de la tecnología de Intel. Ojo, no se trata de la primera película en usar todo esto, pero sí es la primera que sabe llevarlo al límite para ofrecer un realismo que hace atrapa al espectador, aunque éste sabe que lo que está viendo no es real.

Una nueva generación de efectos visuales

A unos días de su estreno, 'Megalodón' ahora mismo está reventando la taquilla en casi todo el mundo, y es que la combinación de tiburón gigantesco junto a Jason Statham parece que ha funcionado muy bien. De hecho, ha impuesto un nuevo récord de taquilla para una película de tiburones.

Sabemos que 'Megalodón' es una película de verano cuyo objetivo es que la gente vaya a comer palomitas a los cines mientras desconecta del mundo real, la cual no ganará ningún Óscar... bueno, esto último no lo podemos asegurar. Pero si echamos un vistazo a los comentarios en redes sociales y de algunos críticos, todos están maravillados con el realismo que han conseguido en este tiburón gigante.

Los responsables detrás de estos efectos son Scanline VFX, quienes usaron la nueva versión de software de Ziva Dynamics, el cual se basa en 2.500 procesadores Intel Xeon Scalable y el uso de inteligencia artificial, también desarrollada por la misma Intel.

Gracias a esto se pudo crear este megalodón de casi 23 metros de largo, donde aseguran que el uso de inteligencia artificial les ayudó a trabajar con las simulaciones físicas del movimiento del animal en el agua, así como con sus músculos y piel. Pero los efectos no sólo son en el animal, Scanline y Ziva explican que el agua del fondo también fue un factor importante para el realismo, ya que iba de la mano con el movimiento del megalodón.

Scanline explica que para dar vida al megalodón tuvieron que partir creando el esqueleto y los músculos, luego la grasa y la piel en la parte superior, y posteriormente "se le dio vida" a todo usando IA, donde se lograron predecir los movimientos a través del agua, ya que tenía que obedecer las leyes de la física. También mencionan que al tratarse de una película de acción del verano, también se exageraron algunas escenas para dar ese toque fantástico.

Megalodon Poster

Otra de las ventajas de usar este tipo de sistemas y potencia en efectos visuales, es que ahora se pueden hacer tomas viendo el resultado final desde el mismo rodaje, y así no se tiene que esperar a la post-producción para añadir los efectos. Según Ziva, con esto se gana tiempo y se pueden ofrecer más opciones al director, para que así pueda hacer cambios sobre la marcha sin afectar el calendario de rodaje.

La clave de todo esto es el realismo, y tal y como lo veíamos con el lanzamiento de las nuevas GPUs de Nvidia, el realismo se ha vuelto un factor importante tanto en videojuegos como en las películas, donde la inteligencia artificial cada vez juega un papel más importante.

En Xataka | Esta es la magia detrás de todas las películas nominadas al Óscar 2018 a mejores efectos visuales



via Magazine - robotica-e-ia https://ift.tt/2w2xGDR

El fabricante ruso del AK-47 nos presenta su nueva creación: un robot personal para tareas de combate e ingeniería

Igorek 4

Kalashnikov, el famoso fabricante ruso creador del rifle AK-47, se acaba de llevar los reflectores durante el foro internacional Army-2018 en Moscú, donde presentaron un impresionante robot que describieron como "un walker mecanizado futurista".

El diseño de este robot nos recuerda a los 'mechas' japoneses, e incluso tiene un tremendo parecido con los AT-ST de 'Star Wars' y el ED-209 de 'Robocop' de 1987. Sin embargo, el fabricante no lo mostró en funcionamiento ya que, según la compañía, se trata de apenas un concepto, del cual mostrarán la versión final durante la Army-2020.

Conozcamos a 'Igorek'

Según Kalashnikov, el robot, bautizado como 'Igorek', está pensado para ayudar en tareas de combate en misiones militares, y en trabajos de ingeniería y construcción.

'Igorek' mide casi cuatro metros de altura y pesa 4,5 toneladas, toda la operación se realizaría dentro de su cabina central, la cual estaría protegida por vidrios a prueba de balas. Según el fabricante, se contaría con la opción de configurar los brazos, donde se podría optar por garras e incluso armas de varios calibres.

Igorek 6

A pesar de lo interesante que podría lucir, la presentación de 'Igorek' dejó muchas preguntas sin resolver, ya que no se dieron a conocer el resto de las especificaciones, no se sabe cómo será su operación, y ni siquiera se le mostró caminando. Incluso algunos piensan que se trata de una estatua.

Además de 'Igorek', Kalashnikov presentó nuevas armas y equipamiento militar, donde se incluyó el anuncio del nuevo rifle AK-308 así como un sistema de "camuflaje sigiloso". Asimismo, también aprovecharon para hacer una demo pública del prototipo de su coche volador, el cual fue presentado hace un año.

Igorek 1 Igorek 2 Igorek 3 Igorek 5 Igorek 7

En Xataka | El fabricante del AK-47 se suma a la carrera por los coches voladores con su primer prototipo



via Magazine - robotica-e-ia https://ift.tt/2N4xI4U

martes, 21 de agosto de 2018

Robots revelan posibles sacrificios humanos de hace 3.000 años en Chavín de Huántar

  • Pequeños vehículos robóticos han realizado el hallazgo más importante de este sitio en los últimos cincuenta años
  • Este templo fue el primer gran centro de religioso y de peregrinación en la historia de Sudamérica

Leer la noticia completa

via Ciencia y tecnología en rtve.es https://ift.tt/2BJjUf1

Mientras muchos están prohibiendo los vídeos 'deepfake', ya hay una compañía que ha empezado a comercializar con ellos

Deepfake

A finales de 2017 se abrió una 'Caja de Pandora' que nos mostraba los capacidades de la inteligencia artificial cuando se usaba con fines de montaje sobre pornografía, y es que estos montajes consistían en colocar el rostro de alguna celebridad sobre vídeos porno sin su consentimiento. Ante esta avalancha de vídeos, la mayoría de las plataformas, como Twitter Pornhub, se declararon en contra de ellos, al grado de prohibirlos y bloquear a quien los suba o distribuya.

Sin embargo, no todas las compañías piensan igual, y el ejemplo está en Naughty America, una casa productora centrada en la producción de porno para diversas plataformas, quien le dio un giro a los 'deepfakes' y ahora ha empezado a usar sus posibilidades con el fin de obtener dinero.

Pon tu cara en un vídeo porno o lleva una estrella porno a tu vídeo

Naughty America dio a conocer un nuevo servicio que se basa en las herramientas usadas en los 'deepfakes', es decir, inteligencia artificial a través de deep learning usando fotos, vídeos y contenido adicional que el cliente deberá enviar. ¿Cuál es el objetivo de esto? Que la compañía pongo el rostro del usuario en el de un actor o actriz porno, y así ahora pueda formar parte de la acción.

Esa es al primera opción, ya que Naughty America también ofrece poner el rostro de cualquiera de sus actores o actrices porno en vídeos caseros de sus usuarios, para que así puedan presumir que tal actriz estuvo en su casa con ellos. De hecho, la compañía asegura que en un futuro podrán grabar a sus actores para que aparezcan en diversos escenarios y adelantan que hasta podrán decir las frases que el usuario desee, para así tener una experiencia "más personal".

A diferencia de los 'deepfakes' que se hicieron famosos a inicios de año, lo que ofrece Naughty America no tiene que ver con celebridades, ya que todo se centra en sus propios actores, que suponemos tendrán algún tipo de convenio para aceptar esto, así como en sus usuarios, quienes deben ceder su imagen y vídeos para el montaje de los vídeos. Obvio Naughty America asegura que todo lo usan de forma confidencial, pero no queremos imaginar lo que pasará si uno o varios de esos vídeos personales se llegasen a filtrar.

deepfakes

Andreas Hronopoulos, CEO de Naughty America, mencionó que este nuevo servicio se basa en la personalización, ya que esa es la clave no sólo para el entretenimiento para adultos, sino para todo. Y para muestra, Naughty America publicó un par de vídeos donde se ve un ejemplo de lo que pueden hacer (vídeos NSFW).

Naughty America no especifica el coste que tiene este servicio personalizado, ya que para solicitarlo hay que enviar un mail donde se recibirán las opciones disponibles y el precio total. Y aquí viene la parte interesante, ya que Naughty America pedirá, a todos aquellos que soliciten este servicio, que firmen una carta en la cual ceden los derechos de su imagen para la creación de estos vídeos. La compañía asegura que esto se los pide su departamento legal con el fin de comprobar que todos son mayores de edad y tienen consentimiento para trabajar en el montaje de los vídeos.

Asimismo, cuando se solicite poner nuestro rostro en un vídeo porno, recibiremos un guión donde nos pedirán enviar varios vídeos de nosotros haciendo todo tipo de expresiones faciales, la cuales se detallan en un documento con instrucciones especificas, sin las cuales no se hará el vídeo, asegura Naughty America, ya que son "indispensables para obtener resultados óptimos".

En cuanto a los vídeos 'deepfakes', Hronopoulos asegura que "sólo se trata de edición, nada más", ya que el montaje de porno falso usando celebridades no es nuevo, "la gente ha estado editando caras de personas en imágenes desde que comenzó internet".

En Magnet | El mundo ama tanto a Nicolas Cage que ya hay una inteligencia artificial haciendo vídeos falsos con su rostro
En Xataka | Vídeos porno falsos con celebridades: la inteligencia artificial muestra una parte importante de su potencial



via Magazine - robotica-e-ia https://ift.tt/2nR5ZcG

Japón quiere que los robots ayuden a mejorar el inglés de sus niños en las escuelas

El Gobierno de Japón planea introducir en las aulas robots con inteligencia artificial (IA) capaces de hablar inglés durante las clases de esta materia, para ayudar a los niños a mejorar su destreza oral, una de las peores del mundo. El Ministerio de Educación nipón lanzará una prueba piloto para probar la eficacia de la iniciativa en abril de 2019 en 500 colegios de todo el país, con el objetivo de implementarlo completamente en dos años, según informó la cadena pública japonesa «NHK». El ministerio también pondrá a disposición de los alumnos aplicaciones para el estudio y sesiones de conversación en línea con nativos de habla inglesa, como una solución a la falta de fondos que dificulta la contratación de suficientes profesores angloparlantes. El inglés es una de las asignaturas pendientes del país asiático, que se ha propuesto mejorar en la materia ante el aumento del número de turistas que espera durante los Juegos Olímpicos de Tokio 2020. Los datos más recientes del índice de dominio del inglés English Proficiency Index EF (EF EPI), de 2017, otorga a Japón el puesto 37 de su lista, compuesta por un total de 80 países, lo que lo sitúa doce puestos por detrás de Argentina y nueve tras España. El último ránking de calificaciones del examen oficial de inglés TOEFL publicado el mismo año revela que Japón es uno de los países asiáticos que peores calificaciones obtiene, sólo por encima de Laos, y donde destaca la baja puntuación en la prueba oral, una de las peores del mundo junto a la de Burkina Faso o Congo.

via Tecnología https://ift.tt/2OUS699

lunes, 20 de agosto de 2018

Un GPS para el interior del cuerpo humano, el sistema del MIT para rastrear implantes y vigilar bajo nuestra piel

Gps Cuerpo Humano

Investigadores del Laboratorio de Ciencias de Computación e Inteligencia Artificial del MIT, CSAIL por sus siglas en inglés, han dado forma a un nuevo método de exploración especialmente preparado para localizar implantes ingeribles o cápsulas inteligentes dentro del cuerpo humano.

ReMix, como así se llama este proyecto de retrodispersión, emplea señales de radio inalámbricas para detectar dispositivos implantables dentro del organismo. Una forma de comunicación y localización que gracias a sus características requiere de una potencia de transmisión nula, según los científicos. De este modo se podrían reducir de una forma significativa los requerimientos de batería de estos elementos y, por ende, su tamaño.

El sistema podría mejorar las técnicas de imagen médica, ayudar a administrar medicamentos a partes específicas del cuerpo o rastrear el movimiento de tumores

El problema es que no es lo mismo usar la retrodispersión en el vacío o el aire que en el cuerpo humano, porque las propiedades eléctricas de los tejidos son muy distintas, por lo que el reto estaba en ir más allá de los principios que subyacen a muchos algoritmos de localización. De ahí que los responsables hablen de ReMix como un "GPS en el cuerpo".

Han conseguido una precisión de 1,4 centímetros, aunque sigue siendo escasa

Para entender cómo se transmiten las señales que necesitan detectar a través de los tejidos y cómo de dispersan con interferencia incluida cuando atraviesan la piel humana, los científicos del MIT colocaron un chip en el interior de un tumor falso que colocaron en diferentes formas de tejido animal. Emplearon un pollo entero, un recipiente lleno de grasa de este animal, vientre de cerdo y un falso tejido humano.

Tras llevar a cabo diversas pruebas comprendiendo que las señales no viajan por líneas rectas, entre otras observaciones, ReMix ha conseguido mantener una comunicación óptima con una relación señal/ruido media de 15,2 decibelios a 1 megahercio de ancho de banda y una precisión de localización media de 1,4 centímetros en tejidos animales.

Este avance podría resultar útil en un futuro, si se extiendo el uso de dispositivos implantados con fines médicos

Pese a que todavía queda mucho trabajo por hacer hasta alcanzar una precisión que verdaderamente ofrezca garantías, el avance que supone este método puede ser significativo para la medicina del mañana en la que el uso de dispositivos electrónicos implantados se perfila prometedor.

En un futuro, lo conseguido por ReMix serviría para localizar estos implantes, pero también para colocarlos de formas menos intrusivas, mejorar tratamientos contra el cáncer con el rastreo de tumores mediante marcadores o administrar medicamentos mediante estos dispositivos de una forma extremadamente precisa.

El estudio sobre este sistema y los hallazgos conseguidos por el equipo de investigadores del CSAIL se presentará esta semana en la conferencia SIGCOMM que se celebrará en Budapest, la capital de Hungría.

En Xataka | Implantes cerebrales, estimulación eléctrica e inteligencia artificial: la solución de EEUU para las enfermedades mentales



via Magazine - robotica-e-ia https://ift.tt/2wfw35i

Los efectos de aprender junto a un robot

La comunidad científica debate sobre cómo aplicar la inteligencia artificial a la educación

via Robótica https://ift.tt/2MYxI6f

Nostálgica

¿Te acuerdas del desembarco de personas que flotaban sobre el mar como espontáneas plagas de carabelas portuguesas?

via Robótica https://ift.tt/2PoFBUr

domingo, 19 de agosto de 2018

Pekín acoge la Conferencia Mundial de Robots

Este evento anual reúne a más de 500 máquinas inteligentes desarrolladas por unas 60 compañías chinas.



Ver vídeo


via Ciencia y tecnología en rtve.es https://ift.tt/2PmQ2rf

sábado, 18 de agosto de 2018

La era en la que robots influencian a humanos

Aumentan en Instagram los seguidores de cuentas protagonizadas por humanoides

via Robótica https://ift.tt/2vVueee

Fembots: los estereotipos femeninos marcan la tecnología

Piensen en robots en el cine o en las series. Seguramente su imaginario les lleve hasta un fornido Arnold Schwarzenegger en «Terminator» o al ciborg-policía «Robocop». Como ejemplos más actuales, tenemos a los moradores de la serie «Westworld», toda una sociedad de androides creados para dar rienda suelta a los instintos más bajos del hombre, desde perversiones sexuales a la violencia extrema. Ahora busquen entre todos estos referentes robots con aspecto femenino. Continuando con la moderna serie de HBO, el papel de la «fembot» se limita a damiselas en apuros o prostitutas. Lo mismo que ocurre en películas consideradas «de culto» como «Blade Runner», donde sus protagonistas femeninas son o bien modelos «de placer» y entrenados para la prostitución; o secretarias que se ven envueltas en una guerra que les queda muy grande y para la que necesitan ser salvadas. En la actualidad, este patrón servil de la mujer que se refleja en las películas ha traspasado la pantalla: los asistentes virtuales tienen nombres y voces femeninas, como Alexa o Siri; triunfan en internet modelos digitales como Shudu, que acumula 130.000 seguidores en Instagram y es parte de una agencia que solo trabaja con maniquíes que existen únicamente en el plano online; o el negocio de las muñecas sexuales a las que se las puede dar diferentes personalidades y que cuentan con inteligencia artificial para responder a los estímulos como si fueran mujeres reales (con la «ventaja» que no lo son y el terreno de la legalidad es mucho más difuso). Caras y voces bonitas «No es el cine o la tecnología los que cosifican, sino la sociedad. Y lo hace a través de la concepción androgénica que construye lo que cada cual debe ser», explica Isabel Tajahuerce, profesora de Comunicación y Género de Universidad Complutense de Madrid y directora del Seminario de Investigación sobre biotecnología, bioética, robótica y simulaciones, donde se abordan este tipo de cuestiones desde una perspectiva de género y de la comunicación. Continuando con el ejercicio imaginativo, Tajahuerce propone pensar acerca de robots que se utilizan en el rescate de personas, por ejemplo. «A estos no hace falta ponerles una cara bonita o una voz agradable, y encima se les presuponen unos rasgos varoniles», señala. «A estos no hace falta ponerles una cara bonita o una voz agradable, y encima se les presuponen unos rasgos varoniles» Por el contrario, algunas máquinas de tabaco nos dan las gracias por nuestra compra con voz melosa y femenina; o incluso Sophia, el robot humanoide más avanzado del mundo, responde de forma dulce y su cara está dentro del canon que la sociedad actual reconoce como atractivo para una mujer. ¿Cuál es el motivo de que esto ocurra? Que hay que ponerle cara al papel de servilismo que ese robot va a desempeñar, según la experta. «Se establece una imagen para el rol que no es necesaria en los robots de rescate, porque no están construidos para eso», incide alegando que, a pesar de todo, la mayoría de las veces se cae en esta «“cosificación» de la mujer, incluso la robótica, «por desconocimiento, no por intencionalidad. Y eso es muy peligroso». Sin embargo, para Tajahuerce, la tecnología no es el nuevo yugo esclavizador de la mujer. De hecho, es al contrario. «Imagina lo que era para una madre con seis hijos tener que lavar la ropa de toda la familia. La lavadora para las mujeres significó la salvación. Las máquinas no son malas y me da miedo esa visión catastrofista del futuro», sentencia. Visión de futuro Volviendo al plano cinematográfico, las creaciones audiovisuales devuelven imágenes de mañanas apocalípticos en los que la tecnología ha deshumanizado al hombre y ha convertido a la mujer en un objeto que se muestra en futuristas lupanares, precisamente como los de «“Blade Runner». «¿Por qué tiene que ser irremediablemente una visión desastrosa y profundamente machista?», se pregunta la experta, quien cree que la educación, a nivel de universidades que crean a futuros maestros, así como la responsabilidad de los medios de comunicación, es la clave. «Todo depende de que haya una formación con perspectiva de género, que hasta ahora no se ha dado, y que se aplique a todos los niveles: desde la universidad a los estudios sobre aplicaciones de inteligencia artificial». Y quizá así los robots pierdan una sexualización que solo el ser humano percibe. Mujeres que quieren ser robots Aparte de robots que tienen rasgos de «mujeres perfectas», las mujeres reales también están abrazando la tecnología como forma de llegar a la excelencia, sobre todo física. Muchas chicas sueñan con ser «influencers» a pesar de que algunas de estas nuevas «gurús» adolescentes que retransmiten su día a día en internet y redes sociales han alertado sobre la mentira que encierran sus idílicas imágenes. Miles de instantáneas con el móvil último modelo y cámara dual, retoques digitales que hacen cuellos kilométricos, pieles perfectas y piernas que solo salen en dibujos animados son algunas cuestiones con las que conviven de forma regular y gracias a las cuales ganan seguidores y dinero a partes iguales. Su máximo exponente: Kylie Jenner, quien tiene en su haber un imperio de 900 millones de dólares según recoge Forbes en su último número. Como los robots, con pose estática estudiada hasta el milímetro, ella y millones de usuarios de las redes sociales posan delante de espejos con la cabeza ladeada, los labios entreabiertos y una postura que difícilmente se aprecia en chicas de la calle. A no ser que estén delante de su teléfono móvil, claro.

via Tecnología https://ift.tt/2MwcO1r

lunes, 13 de agosto de 2018

«La IA permitirá a los robots Roomba “entender” nuestros hogares en no más de diez años», Christian Cerda, COO de iRobot

Irobotap

«Nuestro objetivo es tener el robot aspirador perfecto, que es aquel del que no te tienes que ocupar». Estas palabras de Colin Angle, cofundador de iRobot y presidente ejecutivo de la compañía, son toda una declaración de intenciones. Las pronunció durante la conversación que tuvimos con él a finales de mayo en Madrid y sintetizan muy bien el objetivo al que aspira iRobot: conseguir que nos olvidemos tanto de limpiar los suelos de nuestra casa como del dispositivo que se encarga de hacerlo.

Nuestros análisis de los robots aspiradores de iRobot, y también de los de algunos de sus competidores, nos han demostrado que la experiencia que nos ofrecen actualmente los modelos más sofisticados es muy satisfactoria, pero aún estamos lejos de esa autonomía total que tiene en mente Colin Angle. Lo interesante es saber si la tecnología ya nos permite rozar con la punta de los dedos este propósito, o si, por el contrario, aún tendremos que esperar mucho más para tener esos robots aspiradores tan atractivos en nuestras casas.

La tecnología que hace posible que un robot aspirador Roomba cumpla su cometido combina inteligencia artificial, robótica, ingeniería electromecánica e ingeniería del software

Colinangle

Encontrar la respuesta a esta pregunta no es nada fácil porque la tecnología que hace posible que un robot aspirador Roomba cumpla su cometido combina inteligencia artificial (IA), robótica, ingeniería electromecánica e ingeniería del software. Es sorprendente que un electrodoméstico tan pequeño aglutine tanta innovación. En cualquier caso, es evidente que las personas que pueden ayudarnos a averiguar qué nos ofrecerán los robots aspiradores en el futuro son, precisamente, las que los están diseñando actualmente y mejor conocen sus limitaciones.

Así que dicho y hecho. Hicimos nuestra maleta y nos preparamos para encontrarnos una vez más con Colin Angle y sus colaboradores, pero esta vez en su terreno: en las oficinas centrales que la compañía tiene en Bedford, una apacible localidad situada a media hora en coche del centro de Boston, en Massachusetts (Estados Unidos). Y a solo «un tiro de piedra» del Instituto Tecnológico de Massachusetts (MIT), la prestigiosa universidad en cuyo laboratorio de inteligencia artificial y robótica se formó Angle.

[[gallery: museo-de-irobot-en-sus-oficinas-centrales]]

Nuestras casas son un campo de batalla inhóspito para los robots

Además de con Colin Angle, durante mi visita a la sede de iRobot tuve la oportunidad de hablar con tres de las personas con mayor peso dentro de esta compañía por su responsabilidad, bien en las fases de diseño e ingeniería, bien en la confección de la estrategia comercial de la empresa. Una de ellas es Christian Cerda, que ejerce como Director de Operaciones, y que, por tanto, tiene responsabilidad en las áreas de cadena de suministro, fabricación, gestión de producto, ventas y estrategia comercial.

Christiancerda

También conocí a Chris Jones, un experto en robótica e inteligencia artificial que tiene el cargo de Vicepresidente de Tecnología, y que, por tanto, elabora la planificación y la estrategia a largo plazo de la tecnología en iRobot. Y, por último, pude hablar con Hooman Shahidi, que ejerce como Director Senior de Gestión de Producto con responsabilidad en las áreas de innovación, desarrollo de producto, hojas de ruta y estrategia regional.

El auténtico corazón de los robots aspiradores, y uno de los componentes más complejos de estos dispositivos, es su software. Este elemento aglutina los algoritmos de inteligencia artificial que permiten al robot interpretar la información recogida por los sensores para tomar las decisiones apropiadas y controlar tanto sus acciones como su movimiento. Pero si los sensores no son capaces de recoger del entorno la suficiente cantidad de información, la inteligencia artificial difícilmente podrá llevar a cabo su función con éxito.

El auténtico corazón de los robots aspiradores, y uno de los componentes más complejos de estos dispositivos, es su software, que incorpora los algoritmos de IA

Curiosamente, en esta área iRobot ha tomado un camino diferente al que siguen la mayor parte sus competidores. El principal sensor de navegación de su modelo más sofisticado actualmente, el Roomba 980, es la cámara alojada en la parte superior del robot, mientras que otras marcas confían esta función a sensores ultrasónicos y láser. Christian Cerda me confirmó un dato muy interesante acerca de esta cámara durante nuestra conversación: físicamente es la misma que utilizan algunos smartphones (a lo largo del artículo veremos que este no es el único punto en común entre los robots aspiradores y los teléfonos móviles).

Chrisjones

Desde el punto de vista del reconocimiento del entorno es muy interesante saber por qué los ingenieros de iRobot se han decantado por utilizar la cámara como sensor principal, por lo que fue uno de los temas que abordé durante mi charla con Chris Jones. Este ingeniero, que, como hemos visto, es el responsable de innovación tecnológica, me aseguró que la cámara les permite recuperar mucha más información del entorno en el que el robot aspirador lleva a cabo su función que otros sensores, como los láser. Pero para hacerlo posible es necesario desarrollar un software de inteligencia artificial que sea capaz de analizar las imágenes recogidas por la cámara con mucha precisión.

Christian Cerda y Chris Jones hicieron hincapié durante nuestra conversación en el importante esfuerzo que es necesario hacer en tecnología de reconocimiento de imágenes para que la cámara pueda actuar como sensor de navegación principal. Al fin y al cabo en modelos como el Roomba 980 ejerce la misma función que nuestros ojos. Aun así, la cantidad de obstáculos presentes en nuestros hogares es tan elevada que un solo sensor, por ambicioso y complejo que sea, no basta para garantizar que el robot aspirador lleve a cabo con éxito su cometido.

Hoomanshahidi

Por esta razón, los modelos de iRobot también tienen sensores mecánicos de presión que les ayudan a percibir el contacto con objetos y paredes; sensores infrarrojos que les permiten medir la distancia que los separa de un obstáculo; un sensor óptico que facilita la comunicación con la base de carga y contribuye a que el robot puede regresar a esta una vez que ha concluido su trabajo; un sensor óptico de digitalización muy similar a los que incorporan los ratones de nuestros ordenadores para analizar con mucha precisión el movimiento del robot tomando como referencia el suelo, y, por último, sensores luminosos que los ayudan a percibir los escalones y los desniveles.

La información recogida por esta amplia dotación de sensores es procesada e interpretada por los algoritmos de inteligencia artificial, que no solo deben ser capaces de tomar las decisiones adecuadas para que el robot lleve a cabo la limpieza del suelo con eficacia; también deben «entender» el entorno para evitar que se produzcan accidentes que puedan dañar al robot, como, por ejemplo, que se precipite por las escaleras, y minimizar la probabilidad de que se originen atascos que impidan que la limpieza finalice con éxito.

Este es el reto de la IA de Roomba: «entender» mejor nuestras casas

Todos los portavoces de iRobot con los que pude hablar reconocieron con honestidad que la inteligencia artificial que han implementado en sus productos hasta ahora tiene un margen de mejora importante por delante. Cada generación ha superado con claridad a su predecesora en este ámbito, y esta tendencia seguirá vigente en el futuro. Actualmente estoy probando el modelo Roomba 980, que por el momento es el más sofisticado de la marca (pronto podréis leer el análisis en Xataka), y, aunque su comportamiento global es muy satisfactorio porque la mayor parte de las veces termina su tarea y regresa con éxito a la base, en ocasiones fracasa por su incapacidad de actuar frente a algunos obstáculos del entorno.

La IA tiene un margen de mejora importante, lo que explica que cada generación de robots supere con claridad a su predecesora

En una ocasión Paquito, que es como llamo al Roomba que estoy probando (os sorprendería conocer los nombres cariñosos que buena parte de los usuarios da a su robot aspirador según iRobot), se metió entre las patas de una silla de despacho con ruedas. La distancia entre cada una de las patas era la suficiente para que cupiese, pero, una vez debajo de la silla, el algoritmo de inteligencia artificial no consiguió identificar la forma en que el robot podía escapar de esa trampa improvisada. Así que, después de intentar salir de allí durante varios minutos de forma infructuosa, recibí en mi smartphone una llamada de auxilio: Paquito se había quedado atascado.

Trayectoria

Otra circunstancia con la que también me he encontrado durante mis pruebas, y que ha impedido al robot aspirador completar correctamente su tarea, consiste en que la puerta de alguna de las habitaciones se ha cerrado, a pesar de haberla dejado inicialmente completamente abierta, porque el robot la ha empujado. Cuando sucede esto se queda encerrado en el interior de la habitación, y, al no poder regresar a la base, emite un mensaje de error y la limpieza se detiene.

Las dos circunstancias que acabo de describir reflejan lo importante que es para el robot aspirador «entender» el espacio en el que lleva a cabo su función. Y, al mismo tiempo, avalan la existencia de ese margen de mejora del que me hablaron los responsables de iRobot. Aun así, durante mis pruebas estos errores se produjeron en un 15% de las ocasiones, por lo que en el 85% de los procesos de limpieza restantes el robot consiguió terminar la tarea y regresar a la base con éxito. El balance global es, como podéis ver, positivo.

Para el robot aspirador es crucial «entender» con la máxima precisión posible el espacio que está limpiando, de ahí la importancia de mejorar la inteligencia artificial

Esta frase de Christian Cerda apunta con claridad en qué están trabajando actualmente para que sus próximas generaciones de productos sean más eficaces: «A medida que vayamos incrementando la capacidad de procesamiento del robot y su memoria, así como desarrollando su inteligencia artificial, podrá entender mejor el espacio que está limpiando». Cerda y Jones me confirmaron que en el futuro sus robots serán capaces de reconocer los electrodomésticos, de identificar a las personas que se encuentran en la casa y su movimiento, y de discriminar con precisión la suciedad de algunos objetos del entorno que actualmente pueden causar problemas, como, por ejemplo, los cables, entre otras mejoras.

Los microprocesadores que se responsabilizan de lidiar con toda la información del entorno que recogen los sensores son unos chips con arquitectura ARM muy similares a los de nuestros teléfonos móviles, lo que nos permite hacernos una idea bastante precisa acerca de su capacidad de procesado. Y también nos ayuda a intuir en qué medida pueden mejorar en el futuro. Cuando le pedí información detallada acerca de todo esto, Cerda me ofreció algunas cifras interesantes. Los Roomba de la serie 800 que llegaron al mercado en 2014 tienen un microprocesador capaz de llevar a cabo 32 millones de instrucciones por segundo (MIPS), y se apoyan en 115.000 líneas de código.

Deteccionescalones

Sin embargo, la siguiente generación, la 900, que fue lanzada a finales de 2015, tiene una capacidad de procesado de 293 MIPS y su comportamiento está descrito por nada menos que 3,6 millones de líneas de código. Como podéis ver, la diferencia entre ambas series es notable a pesar de que sus lanzamientos no están muy distanciados. Christian Cerda, además, «se mojó» y no dudó en vaticinar durante nuestra conversación que en lo que concierne a la inteligencia artificial tienen por delante entre siete y diez años de trabajo para materializar ese margen de mejora que permitirá a sus robots «entender» perfectamente nuestros hogares y lo que sucede en su interior.

Los Roomba 900 tienen una capacidad de procesado de 293 MIPS y 3,6 millones de líneas de código

Esa inteligencia artificial es la responsable de describir cómo debe comportarse el robot y determina la eficacia de la limpieza que lleva a cabo, pero hay otra inteligencia artificial que cada vez tiene más importancia porque refleja cómo podemos relacionarnos con él, aunque esta última no ha sido desarrollada por iRobot. En algunos países, como Estados Unidos o el Reino Unido, los robots Roomba están conectados a Alexa y Google Assistant, lo que nos permite programarlos y actuar sobre ellos de la forma más intuitiva posible: utilizando nuestra voz.

Poco a poco esta funcionalidad irá llegando a más países y continuará desarrollándose hasta conseguir que en el futuro la manera en que utilizamos los productos de iRobot sea completamente natural y no requiera un proceso de aprendizaje.

El siguiente paso: la colaboración entre robots

Una de las áreas más interesantes de las que me habló Chris Jones durante nuestra conversación, y en la que están trabajando actualmente, es la manera en que los robots colaborarán y se relacionarán entre ellos en el futuro para llevar a cabo su trabajo con más eficacia. El propósito de iRobot es que Roomba sea el centro de un ecosistema en el que varios robots cooperan para liberarnos de varias de las tareas que actualmente llevamos a cabo de forma manual en nuestras casas, de manera que el trabajo que realizan conjuntamente nos ofrezca valor añadido. Una máxima que describe bastante bien esta idea es esa que defiende que «el todo es mayor que la suma de las partes».

Irobotap

Las palabras de Chris Jones no dejan lugar a dudas: «Una de las áreas en las que seremos testigos de mejoras muy importantes requiere contemplar los robots Roomba como parte de un ecosistema de dispositivos que nos proporciona valor en nuestro hogar. En el futuro tendremos varios robots en casa, y cada uno de ellos estará especializado en una tarea. Es algo similar a lo que ofrecemos actualmente con Roomba y Braava. En vez de diseñar un “súper robot” que lo haga todo, pero no demasiado bien, nosotros preferimos tener varios más especializados y cuya eficiencia no quede comprometida».

A diferencia de otros fabricantes, como Cecotec o iLife, que tienen robots híbridos que son capaces tanto de aspirar como de pasar la mopa o fregar, los ingenieros de iRobot prefieren que cada uno de sus robots esté especializado en una de estas funciones porque están convencidos de que es la única estrategia que garantiza la limpieza más profunda. Dejando a un lado cuál es, en nuestra opinión, la filosofía de diseño más eficaz (podéis echar un vistazo a nuestra guía de compras para profundizar un poco más en este terreno), lo cierto es que a los usuarios nos beneficia que el mercado ponga a nuestra disposición soluciones con un enfoque tan diferente.

iRobot y la competencia

Uno de los datos más interesantes que compartió conmigo Colin Angle durante la conversación que tuvimos en Madrid pocas semanas antes de que yo viajase a Boston para hablar con sus ingenieros y conocer en qué está trabajando la compañía, deriva de los recursos que invierten cada año para mantener el ritmo de desarrollo de sus productos y proteger su capacidad de innovación.

«La industria de los robots aspiradores está madurando y creciendo con mucha rapidez», asegura Christian Cerda

«iRobot invirtió el año pasado 100 millones de dólares en investigación y desarrollo, y este año vamos a invertir 120 millones de dólares. Y tenemos más de 1.000 patentes registradas. Nuestra estrategia es seguir siendo líderes en tecnología para poder ofrecer a los consumidores una experiencia que sea cada vez mejor, independientemente de lo baratos que sean los productos de los competidores chinos», me aseguró Angle.

Basta conocer un poco el mercado (repasaremos su situación en el último epígrafe del artículo) para darse cuenta de que iRobot tiene una posición global sólida. Algunos de sus competidores tienen productos muy económicos que dejan bastante que desear si nos ceñimos a su capacidad de limpieza y su nivel de desarrollo tecnológico. Pero otros, como, por ejemplo, Xiaomi, cuentan con propuestas que gozan de una relación coste/prestaciones realmente atractiva.

Patentes Este pasillo de las oficinas centrales de iRobot en Bedford recoge algunas de las más de 1.000 patentes que tiene esta compañía. De hecho, es la quinta empresa de electrónica de consumo a nivel mundial con más patentes por detrás de marcas como Apple, Sonos o LG.

Dada su importancia, este fue uno de los primeros temas que planteé a Christian Cerda durante nuestra conversación. Y esta fue su argumentación: «Quien gana con seguridad es el consumidor. La industria de los robots aspiradores no solo está madurando, sino que está creciendo con mucha rapidez, y cada marca adquiere un posicionamiento diferente. Unas aspiran al segmento premium, y otras producen lo más barato posible. El problema es que si estas últimas no cumplen con un mínimo de calidad la percepción de los usuarios es mala y la industria en su conjunto puede resentirse».

Actualmente Xiaomi tiene una de las gamas de producto más atractivas si nos ceñimos a su relación coste/prestaciones, por lo que no dejé escapar la oportunidad de preguntar a Christian su opinión acerca de esta marca y de la posibilidad de que haya «tomado prestadas» algunas de las innovaciones desarrolladas por iRobot u otros fabricantes que intentan apostar por la innovación. Su respuesta no tiene desperdicio.

«Algunos competidores chinos, como Xiaomi o Ecovacs, han sido muy hábiles a la hora de replicar variando ligeramente tecnologías ya existentes. En particular, la navegación de Xiaomi es la de Neato, y su plataforma de limpieza es la nuestra. Además, al residir en China tienen un coste de desarrollo bastante competitivo. Pero nosotros tenemos que proteger nuestra propiedad intelectual, por lo que hemos demandado en Estados Unidos a varias de esas marcas chinas por la violación de algunas de nuestras patentes», apuntó Cerda.

Y después de los suelos y el césped… ¿qué vendrá?

Durante mi conversación con ellos por separado Colin Angle y Christian Cerda me confirmaron que iRobot está trabajando en un robot capaz de cortar el césped que heredará buena parte de las tecnologías que incorporan actualmente las familias Roomba y Braava. Angle me confesó que su estrategia consiste en desarrollar productos que puedan encargarse de aquellas tareas del hogar que a nosotros nos resultan más ingratas y menos apetecibles, y que es necesario llevar a cabo con frecuencia.

Por esta razón, en el futuro llegarán al mercado robots de esta compañía que serán capaces de doblar nuestra ropa, fregar los platos y llevar a cabo otras tareas del hogar. Los responsables de iRobot prefirieron no hablar de fechas de llegada al mercado porque la complejidad de estas soluciones es alta y es difícil prever cuándo sus desarrollos tendrán la calidad necesaria para ser lanzados comercialmente. También tienen en mente otra aplicación muy interesante de su tecnología de la que aún no hemos hablado.

Museo3 Uno de los primeros robots diseñados por Colin Angle, el cofundador de iRobot, y sus colegas acabó ilustrando la portada del número de julio de 1997 de National Geographic.

«Otro de los objetivos de iRobot a más largo plazo es contribuir a que las personas mayores vivan de una forma independiente durante más tiempo. El número de personas mayores de 65 años que viven solas aumenta, de manera que nuestra idea no es solo ayudarles a mantener su hogar, sino también cuidarlas. Ampliar el tiempo que estas personas pueden vivir de forma independiente sería un triunfo también en términos económicos para la sociedad», señaló Colin Angle.

Christian Cerda fue, incluso, un paso más allá: «La sociedad va a tener la necesidad de apoyarse en la robótica para cuidar a los ancianos. Los robots podrán comprobar si el anciano está bien, si está tomando correctamente sus medicinas, si se ha caído… Quizás los robots empiecen observando y pidiendo ayuda a un humano si es necesario, pero probablemente también llegarán a un estado de desarrollo en el que no solo observarán, sino que participarán activamente, por ejemplo, manteniendo una conversación con el anciano para ayudarle a tener su mente activa».

España e Iberoamérica son mercados muy importantes para iRobot

España fue el primer país del mundo en el que la familia de robots Roomba se colocó como líder de ventas en su segmento. Antes incluso que en Estados Unidos. La cuota de iRobot en el mercado español es muy similar a la que la compañía estadounidense tiene globalmente, que oscila en torno al 60%, lo que ha llevado a la marca a vender más de un millón de unidades solo en este país. Según Colin Angle, «España es un mercado muy importante y un país de “adopción temprana”».

Braava Así se las gasta Braava jet, el robot mopa de iRobot, cuando se derrama un café directamente sobre el suelo de la cocina.

El mercado iberoamericano tiene una idiosincrasia diferente a la del español, pero también es importante para iRobot, como apunta Christian Cerda: «Nuestra penetración en las regiones en vías de desarrollo es menor. Los principales mercados para nosotros en Latinoamérica son México, Argentina, Brasil y Chile, pero estamos presentes en prácticamente todos los países. Chile es una anomalía dentro de Iberoamérica, de la misma manera que España lo es en el contexto europeo, por la alta penetración de nuestros robots aspiradores».

Más información | iRobot
En Xataka | «El objetivo es tener el robot aspirador perfecto: aquel del que no te tienes que ocupar», Colin Angle, CEO de iRobot (Roomba)



via Magazine - robotica-e-ia https://ift.tt/2vAcZPF

domingo, 12 de agosto de 2018

Ibuki, el robot que simula el aspecto de un niño de 10 años... y que bien podría ser el protagonista de una película de terror

Ibuki

La teoría del 'Valle Inquietante' nos dice que cuando un robot tiende a parecerse demasiado a un humano, tanto en movimientos como en aspecto, causa una especie de rechazo entre quienes están frente a él. Por esta razón, muchos fabricantes, sobre todo occidentales, se oponen a crear robots humanoides, algo que por ejemplo no sucede en Japón, donde año con año se esmeran en crear androides lo más parecidos a un ser humano.

Uno de los casos más famosos es el del profesor Hiroshi Ishiguro, director del Laboratorio de Robótica Inteligente de la Universidad de Wakayama, Japón, quien desde hace varios años se dedica precisamente al desarrollo de robots con aspecto de humanos. De hecho, en 2010 Ishiguro fabricó un robot que era una copia de sí mismo.

Por un futuro donde los humanos y los androides conviven juntos

Como parte del 'Proyecto de Interacción Humano-Robot Simbiótico Ishiguro', el profesor ha presentado algunos avances como los Geminoids, donde uno de ellos era exactamente como él, y ERICA (ERATO Intelligent Conversational Android), que tenía el aspecto de una joven japonesa diseñada para escuchar atentamente a su interlocutor.

Pues Ishiguro está de vuelta, ahora con 'Ibuki', un robot infantil que simula el aspecto de un niño japonés de 10 años. Este nuevo robot se trata de un nuevo logro técnico, ya que ha podido añadir nuevas expresiones faciales "involuntarias" así como un sistema de reconocimiento facial que ayudaría con las tareas de interacción con los humanos.

Ishiguro asegura que Ibuki es el primero de sus robots en contar con una nueva "infraestructura inteligente de robots" la cual se basa en la interacción, donde el objetivo es establecer una comunicación no verbal usando un sistema artificial. Según explica, esta plataforma está integrada por visión computacional, robótica e inteligencia artificial.

Además del reconocimiento facial, Ibuki sería capaz de reconocer voces, sitios, horas del día y situaciones, además de que estaría listo para añadirle nuevas funciones de comunicación "sensibles a tareas". Y es que el objetivo del proyecto es precisamente "desarrollar robots sociales autónomos que puedan comunicarse con múltiples seres humanos a través de diversos medios de comunicación".

Lo interesante de Ibuki, es que por primera vez han logrado desarrollar un sistema de movimiento basado en "ruedas de oruga" que le permiten imitar el andar de un niño, pero sin necesitar un par de piernas. Esto se conoce como "falso andar" y aseguran que serviría para dar ese aspecto muy cercano al ser humano.

Para el profesor Ishiguro, la meta es crear un futuro donde los humanos y los androides convivan juntos, por ello está convencido que los robots deben tener una apariencia humana para que funcionen con éxito entre nosotros.

Por último, los dejamos con un par de vídeos de los anteriores proyectos del profesor Ishiguro. Uno es de las réplicas Geminoid y el otro es de ERICA.

En Xataka | ¿Qué robot te causa más temor? El test del Valle Inquietante



via Magazine - robotica-e-ia https://ift.tt/2nvYW9a