miércoles, 27 de mayo de 2020
Robots camareros para proteger a los trabajadores en tiempos de pandemia
via Tecnología https://ift.tt/36zAYiY
martes, 26 de mayo de 2020
Probamos los mejores aspiradores robots: ¿me voy a despedir por fin de barrer?
via Tecnología https://ift.tt/2yxHdaB
Esta IA consigue alucinantes efectos 3D en imágenes tradicionales analizando el contexto de la escena
Gracias a los avances en las cámaras de los smartphones y en inteligencia artificial a día de hoy es posible analizar imágenes en dos dimensiones para detectar la profundidad de los objetos y crear un mapeado 3D de las mismas. Esto permite interesantes efectos como ya demostró Facebook hace un tiempo, pero ahora un grupo de investigadores dice tener una mejor IA que da resultados mucho más vistosos.
Un grupo de investigadores de (precisamente) Facebook, la Univerisdad de Taiwan y Virgina Tech han creado una nueva forma de generar fotos en tres dimensiones. El resultado son vistosas fotografías mucho más imersivas. Y funciona incluso con fotografías antiguas donde no hay datos de profundidad recogidos por la cámara.
A continuación un video con ejemplos de fotografías tomadas con smartphone:
Y otro de fotografías históricas:
Reconstruir lo que hay detrás del sujeto
Es básicamente el truco que tiene esta inteligencia artificial para generar sus efectos en tres dimensiones. Según explican sus creadores, la diferencia con el método de Facebook y otros existentes es el uso de una IA que genera los píxeles con valores de color y profundidad para esas nuevas áreas que se generan al mover la cámara y dejar "ver" lo que hay detrás del sujeto principal de la fotografía. En el siguiente vídeo podemos ver fácilmente cuál es la diferencia entre distintos métodos y cómo en el de esta IA se autogenera un fondo detrás del sujeto:
El resultado final es desde luego impresionante. Faltará verlo con imágenes propias y no las mostradas por los investigadores. Según comentan, la inteligencia artificial ha sido entrenada con la librería RealEstate10K, pero siempre es interesante ver cómo se comporta con imágenes del día a día.
Convertir imágenes en 2D en imágenes con escenas tridimensionales es algo que varias inteligencias artificiales llevan tiempo haciendo, es cuestión de ir mejorando los resultados. Aparte del ya mencionado sistema de Facebook, también existen otros que por ejemplo recogen varias fotografías para crear un entorno 3D completo. Por otro lado no podemos olvidarnos de las inteligencias artificiales que colorean y mejoran vídeos grabados hace más de 100 años.
Más información | Meng-Li Shih
via Magazine - robotica-e-ia https://ift.tt/3d4ojXT
viernes, 22 de mayo de 2020
NVIDIA crea una inteligencia artificial capaz de recrear Pac-Man de cero: bastó con entrenarle con 50.000 partidas
El 22 de mayo de 1980 se lanzaba Pac-Man, el legendario videojuego del comecocos que planteó una verdadera revolución primero en salones recreativos y más tarde en ordenadores y consolas.
Su legado ha sido enorme, y ahora NVIDIA ha querido hacer un singular homenaje al título de Bandai Namco. Para ello han creado un sistema de inteligencia artificial que simplemente jugando 50.000 partidas de Pac-Man ha recreado el juego desde cero, él solo, respetando las mecánicas y normas del juego. <!--more→
No se genera código, se generan imágenes
El sistema creado por NVIDIA ha sido bautizado como GameGAN, y como su propio nombre indica hace uso de las redes generativas antagónicas (GAN, Generative Adversarial Networks) un tipo de algoritmo que aprovecha la filosofía de aprendizaje no supervisado.
Ese acercamiento a este tipo de problema es ya familiar en NVIDIA, que en el pasado lo ha utilizado en otros ámbitos como el artístico con GauGAN o el de la generación de imágenes de animales a partir de peluches con GANimal. La idea es que el sistema aprenda las reglas del juego simplemente observándolo una y otra vez.
Según NVIDIA GameGAN es el primer modelo de redes neuronales que emula el comportamiento de un motor de videojuegos. Hace uso de dos redes neuronales que compiten entre sí (una generadora y otra discriminadora), y acaba creando nuevos contenidos que emulan el contenido original que estaban observando.
La idea es relativamente sencilla: a medida que el agente artificial juega al juego generado por este singular motor, GameGAN responde a esas acciones generando los fotogramas en tiempo real. Este motor no genera código que luego se ejecuta, sino que básicamente va generando fotogramas de forma coherente a medida que se reconocen y evalúan las distintas acciones que se van sucediendo en el juego.
GameGAN quiere ir más allá de Pac-Man
Con la observación del desarrollo de esas partidas el modelo general los elementos estáticos del entorno, pero además respeta sus reglas. Por ejemplo, que Pac-man no puede atravesar las paredes o que al pasar por encima de una bolita, se la come.
Con este sistema sería posible ofrecer por tanto a los desarrolladores una herramienta para crear automáticamente nuevos niveles para sus juegos, pero también permite a los investigadores en IA contar con una herramienta para desarrollar sistemas de simulación para entrenar máquinas autónomas.
Los creadores de este sistema destacaban que con GameGAN podrían “tener una inteligencia artificial que aprenda a emular las reglas de la conducción y las leyes de la física simplemente viendo vídeos y viendo cómo los agentes toman ciertas decisiones en su entorno”.
El juego de Pac-Man creado por esta inteligencia artificial estará disponible próximamente en el sitio web de NVIDIA AI Playground gracias al acuerdo con Bandai Namco para que cualquiera pueda disfrutarlo.
Más información | NVIDIA
via Magazine - robotica-e-ia https://ift.tt/2A0xD0t
lunes, 18 de mayo de 2020
Unitree A1, el perro-robot similar a Spot de Boston Dynamics que se puede comprar y usar como mascota
Spot de Boston Dynamics es probablemente el robot cuadrúpedo más popular actualmente. Sus habilidades autónomas o su sorprendente fuerza han hecho que sea utilizado por la policía estadounidense o incluso para vigilar parques en Singapur. No hay una versión a la venta para usuarios finales, pero sí alternativas como Unitree A1.
A1 es es el robot cuadrúpedo de Unitree Robotics que busca ofrecer funciones similares (salvando las distancias) a Spot con un precio más reducido. Al contrario que Spot que está a la venta sólo para compañías elegidas por Boston Dynamics por demostrar que hay un verdadero interés de uso, Unitree A1 está a la venta para cualquier tipo de usuario.
Qué puede hacer Unitree A1
Es más inofensivo de lo que parece. Unitree A1 tiene capacidades para caminar de forma autónoma. Para ello reconoce el entorno en el que se encuentra para esquivar objetos y puede reaccionar rápidamente a imprevistos u obstáculos. De hecho incluso al soltarlo desde una altura relativa consigue caer y mantenerse en pie.
Aparte de diferentes sensores cuenta con una cámara integrada que le permite transmitir imágenes en resolución HD a un smartphone. Coin esta misma cámara también puede fijar un objetivo para perseguirlo allá donde vaya. Pero no hay de que preocuparse si un Unitree A1 comienza a seguirte, su velocidad máxima es de 11,8 km/h, a paso aligerado un humano va más rápido.
Según el fabricante A1 también puede llevar cargas de hasta 5 kg a sus espaldas. Su autonomía variará entre una hora y dos horas y media según el uso que se le den. Finalmente, para hacernos una idea de su tamaño, mide 30 centímetros de ancho y 62 centímetros de largo, con un peso de algo más de 6 kilogramos.
Más allá de sus habilidades como "mascota" pocos usos reales se le puede dar ahora mismo a A1 de Unitree Robotics. El robot es capaz de hacer volteretas hacia atrás, seguir a su dueño o incluso ensalzarse en peleas cuando se encuentra con otro A1 por la calle. Afortunadamente no necesita orinar cada varios metros para marcar su espacio.
Vía | CNET
Más información | Unitree
via Magazine - robotica-e-ia https://ift.tt/2zJ2caS
sábado, 16 de mayo de 2020
Black Mirror en la vida real: Singapur despliega un perro-robot para mantener la distancia social
via Tecnología https://ift.tt/3dMXVSm
jueves, 14 de mayo de 2020
En el Eurovisión con canciones generadas por inteligencia artificial ha ganado Australia: así suena su tema
El próximo Daft Punk quizás es una IA. Pero para encontrarlo hace falta un empujón. Es lo que han querido hacer con el 'AI Song Contest', un concurso televisivo inspirado en Eurovisión donde han participado 13 equipos representando a distintos países en los que han propuesto canciones generadas por inteligencia artificial. ¿El resultado? Ha ganado el "grupo" australiano 'Uncanny Valley' con su canción 'Beatiful the World'.
Eurovision 2020 ha sido cancelada por la pandemia, pero el canal holandés VPRO ha querido aprovechar el formato para lanzar esta versión alternativa y explorar las posibilidades creativas de la inteligencia artificial. Un proyecto con un resultado que sorprende y al mismo tiempo nos anticipa un futuro donde las canciones sean directamente generadas por algoritmos.
Y los 12 puntos van para...
Los países participantes han sido Australia, Francia, Alemania Bélgica, Reino Unido, Holanda, Suiza y Suecia, algunos de ellos representados por un par de equipos. El comediante belga Lieven Scheire ha sido el encargado de presentar este 'AI Song Contest'. Para el jurado se ha contado con Vincent Koops, compositor y experto en inteligencia artificial, Anna Huang, investigadora en generación musical por inteligencia artificial y Ed Newton-Rex, compositor y director del AI Lab de ByteDance, empresa detrás de la popular aplicación TikTok.
Las votaciones finalizaron el pasado 10 de mayo y han sido apadrinadas por la propia organización de Eurovisión, quien ha decidido anunciarlo en sus propias redes.
Announcing the very first AI Song Contest 🤖
— Eurovision Song Contest (@Eurovision) May 11, 2020
Tomorrow, teams from around Europe and Australia will compete to try and create the next Eurovision hit using artificial intelligence in a project produced by @VPRO and @3FM.
Read more here 👉 https://t.co/nURCmlLZVt pic.twitter.com/1bvq3qorjv
Según describe la propia organización, el 'AI Song Contest' es "un proyecto público que investiga las habilidades creativas de la inteligencia artificial y su impacto. Para generar nueva música, los modelos de IA (al igual que un compositor humano) tienen que "escuchar" grandes cantidades de música (datos) existentes antes de que puedan generar ideas musicales significativas. Por lo tanto, los equipos trabajarán con datos existentes y datos recién creados".
¿Y el ganador? Ha sido el equipo australiano 'Uncanny Valley', haciendo referencia al concepto de valle inquietante. La canción 'Beatiful the World' fue escrita por la IA y entrenada con muestras de koalas, kookaburras y demonios de tasmania.
Así suena:
En segunda posición quedó el grupo alemán 'Dadabots x Portrait XO' con su canción "I’ll Marry You, Punk Come", una mezcla de sonidos de death metal junto con cantos gregorianos.
En declaraciones a la BBC, el jurado explica que quedó "asombrado por la amplia gama de enfoques innovadores para usar la IA para crear música". Comentando que "componer una canción con IA es difícil porque tienes todos los desafíos creativos que conlleva la composición de canciones, pero también tienes que hacer malabarismos para que el aprendizaje automático sea correcto".
Es posible que ninguna de estas canciones alcance el top de las más populares, pero son una buena representación del nivel creativo que hoy en día puede alcanzar la inteligencia artificial.
Vía | BBC
via Magazine - robotica-e-ia https://ift.tt/2LreYgH
Sony ha reinventado los sensores de imagen: la inteligencia artificial pasa a estar integrada y no necesita conexión a Internet
La mayor parte de nosotros utiliza la inteligencia artificial (IA) a diario, y en muchas ocasiones ni siquiera somos conscientes de estar usándola. Cada vez que hacemos una fotografía con nuestro smartphone, utilizamos un asistente de voz o vemos una película en un televisor de última generación que requiere escalado estamos recurriendo a esta tecnología. Lo curioso es que habitualmente el «cerebro» que se encarga de que la IA resuelva nuestras necesidades no reside en nuestros dispositivos. Está en Internet.
El avance que han experimentado las comunicaciones permite que esta estrategia funcione porque consigue que nuestros dispositivos se comuniquen con los servidores en los que reside la IA de una forma casi inmediata, pero también tiene puntos débiles. Les obliga a estar permanentemente conectados a Internet, y, además, aunque su latencia es relativamente baja, no es despreciable. Por otro lado, el acceso constante a los servidores en la Nube contribuye a incrementar muchísimo el tráfico en Internet y puede poner en riesgo la seguridad de nuestra información. Todos estos inconvenientes son los que Sony quiere resolver de un plumazo, y la forma en la que lo ha hecho es cuando menos original: ha colocado la IA dentro de sus sensores de imagen.
Sony IMX500 e IMX501: así es como estos sensores con IA quieren cambiar las reglas
El punto de partida de estos sensores de imagen es evitar que los dispositivos que los utilizan se vean obligados a acceder a Internet para enviar la información que recogen a los servidores en los que reside la inteligencia artificial. Y para lograrlo lo que ha hecho Sony es integrar la lógica necesaria para implementar la IA dentro del propio sensor. Esta estrategia provoca que ni siquiera sea necesario enviar los datos recogidos por el sensor a un DSP dedicado alojado dentro del propio dispositivo, lo que permite abaratar los costes al prescindir de este circuito integrado adicional. El propio sensor de imagen se encarga de todo. Recoge la luz, genera los datos y los procesa.
El punto de partida de estos sensores es evitar que los dispositivos que los utilizan se vean obligados a acceder a Internet para enviar la información que recogen a los servidores en los que reside la inteligencia artificial
Una consecuencia lógica que conlleva la integración de esta tecnología en los captadores es que su estructura se vuelve más compleja. De hecho, como podéis ver en la imagen que tenéis debajo de estas líneas, el sensor está formado por dos capas que tienen una función muy diferente. En la inferior reside la lógica que implementa el motor de inteligencia artificial y la memoria, y en la superior reside la matriz fotosensible que se responsabiliza de recoger la luz y entregar al motor de procesado las señales que necesita interpretar para generar la información con la que la IA va a tener que lidiar.
Lo interesante una vez que hemos llegado a este punto es saber qué se puede hacer con esta inteligencia artificial porque habitualmente la forma en que están implementadas les permite enfrentarse a un tipo concreto de problemas, y no a cualquier reto. Sony ha confirmado que ha implementado varios modelos diferentes de IA, de manera que es posible habilitar aquel que encaja mejor en el escenario de uso que necesitamos resolver. Además, los desarrolladores pueden implementar sus propios modelos de IA y reescribir o actualizar los que incorporan por defecto los sensores.
Como veis, las posibilidades de estos captadores sobre el papel pintan bien, pero no parece que sea fácil para la inteligencia artificial procesar en tiempo real el torrente de información que son capaces de recoger los fotodiodos del sensor. Según Sony su motor de IA es tan rápido que consigue procesar cada fotograma completamente antes de empezar a recibir la señal del siguiente, por lo que en poco más de 33 ms es capaz de llevar a cabo todo el trabajo.
Como podéis ver en la siguiente imagen, por su tamaño y su resolución los sensores IMX500 e IMX501 encajan bien en un abanico muy amplio de dispositivos, como smartphones, cámaras de fotos, cámaras de videovigilancia, altavoces inteligentes, coches autónomos, etc. De hecho, aspiran a ser integrados en cualquier dispositivo que pueda sacar partido al reconocimiento de imágenes y patrones, y que, además, pueda beneficiarse de la reducción de la latencia y la protección de la información personal que ofrece una IA integrada en el propio dispositivo, y no en Internet.
Estos sensores encajan en un abanico muy amplio de aplicaciones
Los escenarios de uso en los que se puede utilizar un sensor de imagen que es capaz de «entender» por sí solo las imágenes que está recogiendo son muy diversos. Se puede usar en las cámaras de videovigilancia que supervisan el acceso a un local para comprobar si las personas que transitan llevan o no puesta una mascarilla. También se puede utilizar en las cámaras de los supermercados para identificar los productos que están siendo comprados por los clientes y contabilizarlos de forma automática sin necesidad de llevar a cabo una revisión de las existencias a posteriori.
Una aplicación un poco más cercana, que, además, ha sido propuesta por Sony, consiste en integrar uno de estos sensores en un altavoz inteligente para que sea capaz de reconocer el rostro de la persona que está interactuando con él. De esta manera el dispositivo podría ofrecer un trato personalizado a cada uno de los miembros de la familia. Como veis, las posibilidades que tiene un ingenio como este son muy interesantes. Y, por supuesto, sobre el papel estos sensores también encajan bien en los smartphones, por lo que cabe la posibilidad de que no tardemos en encontrarlos en alguno de los teléfonos móviles que llegarán al mercado durante los próximos meses.
via Magazine - robotica-e-ia https://ift.tt/2T5Eufw
miércoles, 13 de mayo de 2020
Esta canasta de baloncesto robótica encesta todos los tiros por ti
via Tecnología // elmundo https://ift.tt/35Tm6Mg
He construido mi propio perro-robot como los de Boston Dynamics, lo controlo con un mando de PlayStation
Los robots de Boston Dynamics en forma de perros -o algo así- se han hecho tremendamente populares en los últimos años, e incluso hemos visto cómo este mismo fin de semana eran empleados por autoridades de Singapur para recordar a sus ciudadanos que deben mantener la distancia de seguridad en plena pandemia mundial.
Verlos en acción hace un par de años encendió la bombilla de Miguel Ayuso, un estudiante de Física de Valdepeñas (Ciudad Real) que pensó en si podría conseguir algo así hecho por él mismo. Hace seis meses se puso a trabajar en serio aquella idea, y hoy tiene un nuevo compañero de piso cuadrúpedo en su hogar en Madrid, donde con 22 años está a punto de acabar la carrera.
Un Arduino, una Raspberry Pi, doce motores y muchas matemáticas
"Ha sido un proceso lento, sin prisa, lo he hecho simplemente para aprender", dice Miguel, que estima en unas doscientas horas el tiempo invertido en diseño CAD mediante Fusion360 -un software de Adobe-, y en otras doscientas lo usado para crear el código que hace posible a este robot.
Paradójicamente, su formación académica no tiene nada que ver con lo necesario para esta creación, excepto por las matemáticas, que básicamente son la base del software de estos robots, tanto para moverse y coordinar esos movimientos, como para que lo hagan de la forma más natural posible. "El código lo he ido sacando poco a poco con mis conocimientos matemáticos, sacando buenos modelos. Orientaciones, vectores, traslaciones... Es lo más importante para el movimiento del robot".
Ese código, escrito en Python, es ejecutado por su ordenador y transmitido vía USB, pero está cerca de poder llevarlo a la Raspberry Pi que ya está dentro del cuerpo del robot. Cuando logre hacerlo, e incluya las baterías también en el cuerpo, ya será inalámbrico. Algo que tenía pensado que estuviese hecho a estas alturas, pero que por la imposibilidad de ir a su casa familiar, donde tiene la Anet A8 con la que imprime las piezas en 3D, ha tenido que posponer. "La idea es hacerlo radiocontrol, no me costará mucho cuando pueda volver a imprimir".
De momento, los cálculos de movimiento los realiza con datos como las propias dimensiones del robot, diciéndole a cada pata a qué coordenada en el espacio quiere que la lleve gracias tanto a sus propios cálculos como a Pybullet, una librería de Python con un motor de físicas a tiempo real.
El resto del cuerpo se inclina indicando el movimiento del centro de gravedad, y un bucle hace que el robot recorra todo el ciclo del paso con el resto de patas aplicando un desfase entre ellas. Una placa Arduino mueve los motores y lee los datos del acelerómetro, integrado en un chip IMU junto a un giroscopio. Una cadena que termina con el robot caminando como un perrito.
Cada pata tiene tres motores -doce en total- que permiten ese movimiento articulado. Esos componentes son los más caros del conjunto, ya que además ha tenido que subir la calidad de los mismos frente a los que intentó usar en un principio, baratos pero que se quemaban en poco tiempo. "En total calculo que me ha costado unos 500 euros en componentes: los motores, la Raspberry Pi, el Arduino, la impresión de las piezas, cableado, rodamientos, conectores...".
Pulsa X para que se agache, pulsa triángulo para que te dé la pata
La idea de hacer que se pudiese controlar mediante un DualShock 3, el de la PlayStation 3, vino porque es un tipo de mando archiconocido, muy bueno, y que funciona como cualquier teclado vía Bluetooth. "Una pulsación en cualquier tecla es un evento dentro del ordenador, un comando. Lo lee Python con una librería, solo he tenido que configurar el emparejamiento Bluetooth".
Próximamente investigará más movimientos que se puedan controlar mediante la combinación de botones pulsados en el mando, como en un videojuego cualquiera. "Se puede añadir cualquier movimiento: agacharse, saludar con una pata... Cualquier cosa que haga al robot más visual, más cercano, más interactivo. La idea es aprender sobre los sistemas de control que se usan en estos robots para que tengan una retroalimentación y pueda predecir cuándo se van a caer, o dónde debe poner las patas para que al caminar sea estable".
Para el futuro, Miguel planea introducir mejoras. "Tengo ganas de que yo le pueda dar golpes y él los esquive o se adapte para que el golpe no le haga caer, el sensor ya lo tiene, solo queda labor de software. Por ejemplo, que cuando reciba un golpe y detecte una aceleración mayor de la normal, que intente equilibrar esa perturbación ajustando la posición de sus patas".
Mientras llega ese siniestramente atractivo día en el que pueda golpear a su robot simplemente para hacerlo mejor, asume que este robot supone un escaparate para él en el mundo laboral al que próximamente entrará. En su canal de YouTube y en su cuenta de Instagram va explicando los avances que va realizando con él, y de paso, promocionándose como un precoz de la robótica que ni siquiera estudia una ingeniería. Además, el código del robot es libre y puede consultarse en Github.
"En juguetería educativa quizás podría ser una buena opción, pero este tipo de robot tiene difícil aplicación más allá del aprendizaje. Va muy al límite de lo que puedes implementar en un robot así. Una Raspberry Pi no es tan potente como para hacer cálculos de estabilidad y a la vez ir controlando la imagen de una cámara, por ejemplo. Y el consumo energético de los motores es alto, los cálculos de estabilidad deben ir muy fluidos para que sean eficaces".
Su objetivo principal con este robot, al margen de permitirle aprender de electrónica, programación y circuiría por el camino, es enseñar que es posible crear un robot así sin salir de casa, y que "la robótica está más cercana a nosotros de lo que puede parecer". Intentará que su TFG -Trabajo de Fin de Grado- esté orientado a este robot, sobre todo para ramas de la Física donde se desarrollan teorías de sistemas de control, de álgebra y matemáticas para controlar sistemas de la vida real. "A ver si convenzo a algún profesor", dice Miguel riendo.
via Magazine - robotica-e-ia https://ift.tt/2Lor0Hx
lunes, 11 de mayo de 2020
A esta inteligencia artificial le bastan 1,2 millones de canciones para imitar el estilo de cualquier artista, vivo o muerto
La próxima canción que lo pete en las listas de éxitos podría estar creada completamente por una máquina. Es al menos lo que uno se plantea cuando descubre a Jukebox, una red neuronal capaz de imitar a cualquier artista musical creando canciones que siguen ese estilo.
Este sistema de ingeligencia artificial ha sido entrenado con 1,2 millones de canciones y que gracias a ello puede generar por sí sola la letra de la canción, la música e incluso de forma "rudimentaria", como sus creadores indican, la voz de ese artista. El resultado, como se puede ver en las muestras de audio y los vídeos, son sorprendentemente convincentes.
Dame una canción, ya hago yo el resto
OpenAI publicaba este desarrollo —tanto el código fuente como un montón de muestras de ejemplo— hace unos días y lo hacía para que cualquiera pudiera experimentar con un sistema que reabre el debate sobre la potencial capacidad creativa de las máquinas.
Este entorno de trabajo hace uso de un sistema de aprendizaje automático capaz de generar música y canciones de diversos géneros y estilos musicales. Una vez está entrenado, uno puede darle como entrada al sistema un artista o canción de partida y Jukebox creará de cero una muestra de sonido de una canción que conservará ese mismo estilo.
Este tipo de modelos de generación de contenido a partir de un entrenamiento previo no son en absoluto novedosos, pero esta nueva plataforma de OpenAI demuestra hasta dónde se puede llegar con los avances actuales: las muestras de música country, pop clásico jazz, rock clásico o heavy metal eran realmente llamativos por cómo se ajustaban al estilo y artista original.
El sistema de Jukebox funciona mediante un llamado codificador automático (autoencoder), que comprime el audio de entrada en un espacio dimensional más reducido en el que se descarta cierta información considerada irrelevante. Ese modelo puede ser entrenado para generar audio con ese mismo patrón y devolver una muestra del resultado.
Los responsables de este sistema lo entrenaron con 1,2 millones de canciones, 600.000 de las cuales estaban en inglés, y en ellas también se incluyeron tanto las letras como algunos metadatos (género, año de publicación, artista, algunas palabras clave).
Los ejemplos publicados imitan todo tipo de estilos musicales y todo tipo de artistas. Entre ellos estaba inevitablemente un ejemplo más de rickrolling, ese meme generado a partir de la canción 'Never Give You Up' de Rick Astley. El motor fue capaz de generar un tema muy similar y que desde luego sorprende por cómo logra imitar el estilo de Rick Astley.
Los resultados son espectaculares aun con sus limitaciones, sobre todo en cuanto al ruido generado en la canción o al hecho de que se necesita mucho tiempo ("nueve horas" en sus máquinas, aunque no especifican cuáles) para generar un solo minuto de audio debido a la ingente capacidad de proceso que requiere este sistema.
Más información | OpenAI
via Magazine - robotica-e-ia https://ift.tt/2SUAkXO
En Singapur han puesto a los robots de Boston Dynamics a vigilar que se guarde la distancia de seguridad en los parques
Cuando ya han pasado unos meses desde que la OMS catalogó la epidemia del coronavirus como pandemia, son muchos los países que están relajando medidas de confinamiento en pro de recuperar la normalidad y Singapur es uno de ellos, aunque han recurrido a algo bastante peculiar: los robots de Boston Dynamics como patrulleros. Sí, aquellos que más o menos tienen forma de perro y que en su momento nos pudieron parecer bastante inquietantes.
Déjà vu de 'Black Mirror' a parte, en realidad Spot (que así es como se llama este modelo) ya ha demostrado ser de utilidad en anteriores ocasiones y en diversos usos. Ejemplos de ellos son el poder remolcar un camión o incluso la telemedicina en plena pandemia, y ahora lo que hemos visto es que puede recordarnos que aunque ya se pueda salir de casa a pasear y a practicar actividades físicas, hay que mantener la distancia de seguridad.
Evitar los contagios sin poner en riesgo tampoco a las autoridades
Que Spot se pasee por parques y espacios abiertos en Singapur forma parte de un programa piloto, por parte del gobierno de la región (concretamente el Grupo de Gobierno Digital y Nación Inteligente) y la Junta Nacional de Parques (NParks) de cara a hacerlo todo más "smart". Los robots son una manera de reforzar la seguridad en cuanto a que se mantengan las distancias de separación adecuadas sin comprometer a las autoridades humanas, al estar controlados remotamente.
Estas unidades de Spot llevan además cámaras integradas, de modo que puede controlarse el aforo de los parques, según explican en ZDNet. Aunque eso sí, estas cámaras no identificarán ni rastrearán a individuos específicos, ni tampoco recogerán datos personales como trasladan en el medio local Strats Times.
Según han declarado las agencias gubernamentales, en esta primera fase han salido a patrullar en lo que serían las horas valle (no en hora punta) en un área de 3 kilómetros en el parque Bishan-Ang Mo Kio. Además de su notoria presencia, los robots reproducen un mensaje pregrabado que recuerda la necesidad de preservar la distancia de seguridad para contener en la medida de lo posible el contagio.
La ventaja de Spot frente a otras propuestas es una de sus características más evidentes: sus cuatro patas articuladas (y potentes). Éstas le permiten desplazarse por las distintas superficies de los parques, esquivando obstáculos y los propios seres humanos gracias a sus sensores y algoritmos. De hecho, ya vimos que se han llegado a usar por la policía estadounidense por su versatilidad.
Como decíamos antes, se trata de un programa piloto y es aún un ensayo. Si resulta exitoso la idea es que Spot patrulle en horas punta (mañana y tarde) por más zonas, como los jardines del lago Jurong. NParks gestiona hasta 350 parques, así que podríamos empezar a verlo en muchas áreas de la región.
via Magazine - robotica-e-ia https://ift.tt/2znxbcd
Un nuevo modelo de robot flexible imita el movimiento del guepardo para mejorar drásticamente su velocidad
Cuando pensamos en un robot generalmente nos lo imaginamos rígido con un montón de articulaciones y desplazándose (nunca mejor dicho) robóticamente. Sin embargo aparte de los robots rígidos también existen los robots flexibles, que buscan imitar funciones biológicas para cumplir con sus necesidades, por ejemplo transpirar. Un nuevo modelo ha sido desarrollado para mejorar su velocidad, lo hace imitando al animal más veloz de todos, el guepardo.
Desarrollado por la Universidad Estatal de Carolina del Norte, el pequeño robot utiliza una nueva técnica donde altera su "columna vertebral" entre una forma cóncava y convexa. Un movimiento similar al que hacen los guepardos al correr y que les permite alcanzar velocidades de 94 km/h de media. El pequeño robot no llega a tanto, pero sí que mejora de forma considerable frente a otros modos de desplazamiento como este robot ciempiés.
Columna vertebral "biestable"
La columna vertebral LEAP (Leveraging Elastic instabilities for Amplified Performance) desarrollada en este experimento aprovecha las capacidades flexibles del robot para mejorar su desplazamiento. Indican que los robots flexibles más rápidos hasta la fecha podían conseguir velocidades de 0,8 su longitud por segundo. Es decir, si el robot medía 10 cm en un segundo se desplazaba una distancia de 8 cm. Con la nueva técnica consiguen un desplazamiento por segundo de 2,7 veces la longitud del robot. Una vez más, si el robot mide 10 cm se desplaza 27 cm en un segundo.
Para conseguir esta curvaturas de la columna vertebral del robot esta tiene una estructura "biestable", como la llaman sus creadores. Significa que sólo se puede mantener estable y en reposo en dos posiciones (una cóncava y otra convexa). Bombeando aire a presión en los canales de silicona de la columna generan el movimiento que cambia la estructura de un estado (cóncavo) a otro (convexo) y viceversa . Así es cómo consiguen que el robot de pequeños saltos y "galope" como un guepardo.
En el vídeo se puede apreciar cómo cuando los pies de la parte delantera tocan el suelo los de la parte trasera "saltan" debido al arqueamiento de la columna vertebral. Luego ocurre al revés, la columna toma una forma convexa para que los pies delanteros se extiendan y consigan una zancada mayor. Básicamente el movimiento de galope de muchos animales.
Este movimiento parece ser también efectivo a la hora de subir cuestas. Al tener menos fricción con la superficie y dar pequeños "saltos" el robot LEAP consigue subir cuestas que con otras técnicas no ha sido posible. Finalmente esta estructura también se puede aprovechar bajo el agua para hacer que el robot nade imitando el desplazamiento ondulado de los peces, como se puede ver en el vídeo de la investigación.
Mientras otros robots rígidos apuestan por técnicas de locomoción como ruedas o patas sólidas, esta nueva técnica plantea una alternativa para los robots flexibles, que suelen ser mucho más lentos. La pregunta ahora es cómo mejoraría Spot de Boston Dynamics sus habilidades acrobáticas con una columna flexible como esta.
Vía | New Atlas
Más información | NCSU
Imagen | @etiennecamera
via Magazine - robotica-e-ia https://ift.tt/3boTsUe
Cómo la tecnología definirá el mundo post Covid-19
via Tecnología https://ift.tt/2yBHZUh
martes, 5 de mayo de 2020
Dyson también quiere hacerse un hueco en el mercado de los robots aspiradores
via Tecnología // elmundo https://ift.tt/2L3SS3w
Una inteligencia artificial, aunque sea autora de un invento, no puede patentarlo legalmente en Europa o EE.UU.
En agosto de 2019 dos solicitudes de patentes sobre una luz de advertencia y un contenedor de alimentos se presentaron ante la oficina de patentes para ser registradas. A diferencia de la mayoría de solicitudes de patentes, el autor no era un humano sino Dabus AI, una inteligencia artificial. Han sido rechazadas.
Generalmente una inteligencia artificial es una herramienta que ayuda a los inventores en su trabajo, por ejemplo procesando grandes cantidades de datos para encontrar patrones determinados aspectos. Sin embargo, también se puede dar el caso de que invente algo totalmente nuevo, como un proceso creado desde cero. En ese caso, ¿por qué no se le puede considerar autora del invento? Hay varios aspectos a tener en cuenta.
Dabus AI es una inteligencia artificial creada por Stephen Thaler. Stephen además de crear a la IA la alimentó con una ingente cantidad de datos y fue la IA quien encontró innovaciones para generar la idea de una nueva advertencia mediante luces y un contenedor de alimentos. Si bien Stephen ha creado a la inteligencia artificial, no tiene experiencia ni conocimientos necesarios para crear el sistema de advertencias por luces por ejemplo. Es por ello que considera mejor colocar a Dabus AI como autora del invento.
Derechos, pero también responsabilidades
Los organismos regulatorios sin embargo han rechazado la patente colocando a Dabus AI como inventor legítimo. Ni la Oficina de Patentes Europea ni la Oficina de Patentes de Estados Unidos consideran que Dabus AI pueda ser la inventora legal de las patentes. El argumento principal es que Dabus AI no es una persona física.
El caso juega con unas reglas ambiguas y no del todo adaptadas a los tiempos actuales. Normalmente si una IA interviene en el proceso de creación de un invento, se le suele describir como "innovación obtenida gracias a una IA" o algo por el estilo, pero no se le coloca como autora del invento. Aquí la idea en parte es ver cómo responden los organismos ante el caso.
Ser inventor de una patente y tenerla registrada implica una serie de responsabilidades que, en principio, una IA no puede llevar a cabo. La inteligencia artificial debería ser capaz por ejemplo de autorizar licencias para que otros utilicen la patente, así como presentar demandas en caso de que se use la idea ilícitamente.
Indica el organismo europeo que una IA no es una personalidad jurídica:
"Además, la designación de un inventor es obligatoria, ya que tiene una serie de consecuencias jurídicas, en particular para garantizar que el inventor designado sea el legítimo y que pueda beneficiarse de derechos vinculados a esta condición. Para ejercer estos derechos, el inventor debe tener una personalidad jurídica de la que no disfrutan los sistemas o máquinas de IA."
Es un debate que la Unión Europea consideró en 2018, planteando la posibilidad de crear un rol de "personalidad electrónica" para las patentes. Sin embargo no se ha llegado a un acuerdo sobre ello.
Esta ambigüedad puede generar una situación crítica en la que, por ejemplo, un humano no puede asignarse como autor del invento porque no estuvo involucrado directamente. En ese caso, si la inteligencia artificial tampoco puede ser al no ser una persona física, ¿quién patenta el invento? De ahí que se busque poder ofrecer el derecho a la propiedad intelectual a una inteligencia artificial también.
Vía | Vice
via Magazine - robotica-e-ia https://ift.tt/3b22Hth
lunes, 4 de mayo de 2020
En China los mensajeros comienzan a usar exoesqueletos para cargar con 50 kg a la espalda como si nada
En China la empresa Ele.me de entrega de comida a domicilio se ha adaptado a los nuevos tiempos: la pandemia de coronavirus ha hecho que sus repartidores tengan que trabajar más que nunca, pero para ayudarles a hacer ese trabajo se las han ingeniado para cargar con más comida en cada trayecto.
De hecho los mensajeros de esta empresa han comenzado a probar unos singulares exoesqueletos para lograr transportar hasta 50 kg de carga sin problemas. El sistema, desarrollado por la empresa USLRobotics de Shanghai, permite a estas empresas facilitar el transporte de grandes cargas sin apenas esfuerzo.
Una ayuda muy llamativa para la mensajería en tiempos del coronavirus
El exoesqueleto desarrollado por esa empresa es especialmente útil para entregas en edificios sin ascensor o en aquellas zonas en las que el acceso de motocicletas o bicicletas no está permitido: con este exoesqueleto es posible que los mensajeros realicen la entrega a pie aunque la carga sea elevada.
Straight out of a video game: China’s ubiquitous food-delivery app https://t.co/O6kOT9RrJG caught the Chinese internet’s attention this week after testing a powered exoskeleton for its couriers. The exoskeleton endows the wearer with the strength to carry up to 50 kg with ease. pic.twitter.com/4elmxRhLDU
— Sixth Tone (@SixthTone) 30 de abril de 2020
Uno de estos mensajeros ha sido capturado en un vídeo que se ha hecho viral en redes sociales chinas. Como muchos han señalado, verlo en acción recuerda al videojuego 'Death Stranding' de Hideo Kojima, en el que precisamente el protagonista también hace uso de diversos exoesqueletos para poder soportar grandes cargas a la espalda con facilidad o para lograr transportar menores cargas pero a mayor velocidad.
El exoesqueleto de USL Robotics, que pesa unos 7 kg, permite transportar sin problemas 50 kg de carga. Tiene una batería de unas 6 horas, lo que permite que el mensajero lo utilice buena parte de su jornada. El problema, aparte de estar en pruebas, es su elevado coste, algo que probablemente hará que su uso sea probablemente reducido.
Estos exoesqueletos tienen cabida desde hace tiempo en escenarios industriales y también militares, pero también como ayuda para personas con discapacidades o personas mayores puedan seguir desplazándose y realizando trabajos físicos con facilidad.
Vía | cnTechPost
via Magazine - robotica-e-ia https://ift.tt/3c2VEBY