Las plataformas de IA generativas de imagen ya están asentadas y sus resultados son espectaculares, así que, ¿qué pasa con el vídeo? Ese reto es más complejo, pero ya hay empresas que están intentando resolverlo, y una de ellas es Pika.
La startup china Pika Labs, fundada por Demi Guo y Chelin Meng, quiere convertirse en la Midjourney del vídeo generado por AI. Su propuesta no está destinada a usuarios profesionales, sino a entusiastas de la IA que quieran experimentar con una herramienta que está en pañales pero que ya da resultados sorprendentes.
En Xataka hemos podido probar una versión beta a través del canal de Discord de la plataforma —cualquiera puede solicitar una invitación para el acceso a la versión estable— y en las horas que hemos pasado experimentando con esta plataforma hemos sacado algunas primeras impresiones.
Para empezar quizás sea necesario bajar expectativas. Los vídeos generados por Pika son imperfectos y en muchos casos hasta inquietantes: la IA toma decisiones de animación que son chocantes y que no concuerdan con lo que hubiéramos imaginado que iba a hacer. Incluso siendo precisos con los prompts, el resultado suele ser curioso, pero a menudo poco usable.
Hay también limitaciones importantes: los vídeos generados por ahora solo son de tres segundos, lo que hace difícil desarrollar poco más que pequeñas animaciones en la aplicación. Es posible, eso sí, concatenar varias animaciones para acabar creando otras más largas. El truco está en extraer el último fotograma del vídeo generado y usarlo como imagen de referencia para el siguiente con el mismo prompt.
Es lo que hemos hecho en un par de ejemplos con los que hemos experimentado. El primero, una niña en un columpio: a pesar de usar ese último fotograma de cada clip de tres segundos, la animación acaba deformando la imagen original y siendo prácticamente una alucinación. En los primeros instantes lo único que se mueven son las ramas del árbol —de forma muy realista, eso sí—, pero luego la cosa se vuelve extraña.
En el segundo, en el que el prompt fue "video taken from a plane, moving forward" con una imagen del madrileño Pirulí, la idea era que la cámara se moviera y acercara al célebre edificio Torrespaña, pero el resultado final, a pesar de concatenar varios vídeos, fue ciertamente errático y poco usable. En ciertos instantes apenas se mueven las nubes, luego hay algo de acercamiento, y luego, curiosamente, el movimiento parece detenerse.
También probamos a tomar una imagen de referencia de Elon Musk y pedirle a Pika que la animara. Aquí pedir que Musk haga como que está hablando es fácil, pero en el clip solo pedimos que pronunciara la palabra "Oh" y Pika decidió que lo que queríamos era que moviera los labios sin parar. Eso, curiosamente, lo hacía bastante bien.
Si uno se une al citado canal de Discord puede comprobar cómo Pika está siendo aprovechado para todo tipo de ideas que los usuarios iteran una y otra vez tratando de encontrar el resultado perfecto. En muchos casos los clips generados son extraños y poco convincentes, y la sensación que da esta herramienta es la de estar muy lejos de lo que plataformas como DALL-E, Midjourney o Stable Diffusion consiguieron casi inmediatamente: dejarnos alucinados con la calidad de sus imágenes.
Pero también es cierto que Pika acaba de iniciar su andadura y es pronto para decidir si el vídeo generado por IA acabará siendo algo tan convincente y espectacular como ya lo son las imágenes generadas por IA. La empresa, eso sí, ya ha generado mucha expectación, y acaba de cerrar una ronda de inversión de 55 millones de dólares.
¿Podréis convertiros en directores de cine de animación con Pika? De momento la respuesta a esa pregunta, al menos si queréis resultados comparables a los de los procesos convencionales, es un rotundo no. El propio apartado de demos que muestran en el sitio web oficial así lo confirma.
Y sin embargo hay una cosa cierta: usar Pika engancha. Eso es ya buena señal.
via Robótica e IA - Xataka https://ift.tt/LHxEmup
No hay comentarios:
Publicar un comentario