martes, 27 de noviembre de 2018

Científicos de Berkeley logran enseñar movimientos realistas a inteligencias artificiales usando vídeos de Youtube

Científicos de Berkeley logran enseñar movimientos realistas a inteligencias artificiales usando vídeos de Youtube

A cada minuto, 300 horas de vídeo nuevas pasan a engrosar ese almacén de información que es Youtube: gameplays, tutoriales, videoclips, documentales, etc. Por desgracia, todavía resulta difícil para las inteligencias artificiales aprender nuevas habilidades a través del análisis de todos esos vídeos.

Pero un grupo de investigadores de Berkeley se han propuesto usar precisamente usar esos vídeos como fuente de datos para enseñar a una IA a moverse como los humanos: han desarrollado un framework que incorpora tecnología de visión por computadora y técnicas de aprendizaje por refuerzo que permitieron a los investigadores entrenar a la IA en más de 20 tareas acrobáticas.

La captura de movimiento: lenta y cara (hasta ahora)

Hasta ahora, las técnicas para enseñar movimiento a las máquinas se apoyaban mayoritariamente en el uso de estructuras de control creadas manualmente, que limitan tanto la gama de habilidades que permiten aprender como la naturalidad de los movimientos aprendidos.

De modo que, si tenemos entre manos una película de animación o un videojuego y deseamos que los personajes cuenten con animaciones realistas, lo más probable es que nos veamos obligados a recurrir a tecnología de captura del movimiento (como la que permitió a Andy Serkis 'dar vida' a Gollum en El Señor de los Anillos o a César en El Planeta de los Simios).

Eso requiere de un actor que, trabajando en un estudio, proporcione al software sus parámetros de movimiento. Un proceso que suele proporcionar un buen resultado, pero que resulta laborioso y caro. Así que, ¿no sería genial usar todos esos datos contenidos en los millones de horas de vídeos de Youtube como forma de sustituir a los actores?

El Gangnam Style como reto para la inteligencia artificial

Eso es lo que permite realizar el framework desarrollado en Berkeley."La clave está en descomponer el problema en componentes más manejables, elegir los métodos correctos para esos componentes e integrarlos de manera efectiva", afirman los investigadores Jason Peng y Angjoo Kanazawa.

El funcionamiento es el siguiente:

  • En primer lugar, se proporciona un vídeo para captar las posturas mostradas en cada frame.

  • Se entrena, mediante aprendizaje por refuerzo, a un personaje simulado para imitar el movimiento.

  • Esto permite que el sustema termine siendo capaz de predecir de manera plausible a partir de un único frame cómo se llevará a cabo un movimiento.

"Sin embargo, imitar las habilidades de los videos sigue siendo un problema extremadamente desafiante, y hay muchos clips de video que aún no podemos reproducir: los pasos de baile ágiles, como el de un clip estilo Gangnam, todavía pueden ser difíciles de imitar".



via Magazine - robotica-e-ia https://ift.tt/2RgQAQh

No hay comentarios:

Publicar un comentario