No sólo de gráficas entiende Nvidia y de sus pinitos en inteligencia artificial y varias de sus ramas sabemos desde hace años. De hecho, al definir el término Deep learning hace dos años ya les citamos, y ahora han presentado un nuevo sistema en que los robots aprenden de nosotros mirando e imitándonos.
El equipo de investigadores a cargo de este proyecto lo presenta esta semana en la Conferencia Internacional de Robótica y Automoción (ICRA). La idea es que esta tecnología mejore la comunicación entre seres humanos y robot, así como hacer que su trabajo conjunto mejore. Se trata de un sistema basado en el deep-learning de modo que el robot aprende una tarea (sencilla) con tan sólo "verla".
Ver para aprender
Tres redes neuronales participan en este sistema de aprendizaje por imitación. Describen en el trabajo que los ojos del sistema son una cámara y que dos redes neuronales se encargan de determinar la posición y la relación entre los objetos que se usan en la acción a aprender.
Una tercera red elabora las acciones que el robot ha de ejecutar para imitar la tarea. Además, el robot crea una descripción de los pasos necesarios para realizar la tarea, de modo que el usuario puede identificar y corregir cualquier malinterpretación que el robot haya podio hacer.
Lo que vemos en las imágenes que han compartido es que un brazo robótico logra reproducir las acciones que un ser humano realiza con una serie de objetos (unos bloques de colores y un coche de juguete). Lo que hicieron es enseñar al sistema las relaciones físicas de los bloques y el coche, bien estando apilados o bien colocados uno al lado del otro (Above o Left of), y en el vídeo vemos representadas estas relaciones (cuando los puntos de un objeto y otro se unen) así como la lista de tareas.
Explican que la clave es solucionar lo que en la actualidad es un cuello de botella en estos sistemas: la gran cantidad de datos etiquetados que requieren estos entrenamientos. Así, lo que ha hecho este equipo de investigadores es implementar la generación sintética de datos, de modo que según explican pueden generarse datos casi de manera infinita con poco esfuerzo.
Tirando de gráficas titánicas
En el sistema se usan tarjetas gráficas de la casa, obviamente. Detallan para que el entrenamiento de la redes neuronales se usaron GPUs Nvidia Titan X, el cual permite que el robot sea capaz de aprender una tarea con una sola demostración en el "mundo real".
Por el momento el sistema y su tecnologías se hayan en un estado prematuro, pero el equipo asegura que continuará la investigación con este entrenamiento para incrementar la dificultad de las tareas así como los escenarios de realización. La idea es que haya una comunicación fluida, rápida y cómoda entre robot y ser humano, de modo que los segundos puedan aprender al instante a hacer tareas mecánicas y sobre todo corregirlas a tiempo real al ser "consciente" del entorno.
via Magazine - robotica-e-ia https://ift.tt/2LhOj4N
No hay comentarios:
Publicar un comentario