A mediados de 2021, OpenAI disolvió su equipo de robótica. La compañía dirigida por Sam Altman decidió centrar sus esfuerzos en otros proyectos relacionados al sueño de alcanzar la inteligencia artificial general (AGI). Aquel movimiento, sin embargo, no significaba que OpenAI perdiera el interés en esta disciplina.
Mientras que en el mundo veíamos aparecer a los robots humanoides Optimus de Tesla y Digit de Agility Robotics, una startup llamada Figure AI recibía millones de dólares de inversión de empresas gigantes como Microsoft y NVIDIA, y concretaba un acuerdo de colaboración con OpenAI. El tiempo ha pasado y aquí está su primer fruto.
Figure 01, el sorprendente robot de Figure AI
Hace exactamente un año que Figure AI hacía pública su existencia y se presentaba al mundo como una compañía emergente con el ambicioso objetivo de desarrollar un robot humanoide de propósito general. Lo hacía con un vídeo con imágenes generadas por ordenador. En ese momento no había robot alguno, solo una gran promesa.
El proyecto fue avanzando hasta que en octubre del año pasado anunció Figure 01. Se trataba de un prototipo de robot humanoide brillante. Esta máquina ya podía caminar de forma dinámica, una característica nada despreciable en el mundillo de la robótica. Figure 01 ahora es capaz de hacer otras tareas, entre ellas, conversar con humanos.
Brett Adcock, el fundador de la compañía, compartió este lunes un interesantísimo vídeo sobre el robot. "Oye Figura Uno, ¿qué ves en este momento?”, pregunta alguien al robot. Y este responde: "Veo una manzana roja en el plato en el centro de la mesa, escurreplatos con tazas y un plato, y tú parado cerca con la mano sobre la mesa".
"Genial, ¿puedo comer algo?", pregunta la persona. "Claro", responde el robot al tiempo que coge la manzana y la suelta sobre la mano del humano. El robot es capaz de entender que la manzana es el único objetivo comestible frente a él. Figure 01 también puede hacer diversas tareas de manera autónoma. No es controlado remotamente.
Un detalle importantísimo de la secuencia es que, según Figure AI, muestra el desempeño del robot humanoide a una velocidad de 1.0X. Es decir, no hay trucos de edición para dar la impresión de mayor velocidad. Asimismo, exhibe el resultado de “redes neuronales de extremo a extremo”. Aquí, precisamente, destaca el aporte de OpenAI.
No hay demasiados detalles técnicos sobre el proyecto. Sabemos, sin embargo, que las cámaras funcionan gracias a un modelo de lenguaje de visión (VLM) entrenado por OpenAI. No estamos seguros si se trata de un producto nuevo e independiente de la firma dirigida por Sam Altman o de una variante de GPT-4 con visión. Probablemente tendremos más datos en el futuro.
Imágenes | Figure AI
via Robótica e IA - Xataka https://ift.tt/jMCEn2u
No hay comentarios:
Publicar un comentario