Que este año vamos a ver un sinfín de aplicaciones de la IA generativa no es un secreto para nadie. Estamos familiarizados con la generación de texto, de imágenes y estamos asistiendo a la generación sintética de vídeo. Y de música, también. Ya hemos visto varios experimentos relacionados con la generación de clips de audio por parte de, entre otras compañías, Google, Microsoft y Meta, por lo que era cuestión de tiempo que Adobe, la firma detrás de Photoshop e Illustrator, anunciase su propia tecnología.
Project MusicGenAI Control. Así se llama el proyecto en el que Adobe está trabajando y que ha sido anunciado durante el Hot Pod Summit que ha tenido lugar esta misma semana. Este sistema se enmarca dentro de Firefly, la familia de modelos de inteligencia artificial de Adobe, y su funcionamiento parece ser bastante sencillo: solo necesitamos decirle a la IA qué estamos buscando vía texto y la IA lo genera.
"Música de tensión". Como la inmensa mayoría de herramientas de IA generativa, Project MusicGen AI funciona mediante texto. El usuario solo tiene que introducir qué necesita, como "música de tensión", "ritmo feliz", "jazz suave" o "ambiente chill" y la IA se encarga del resto. No solo eso, sino que el modelo también es capaz de ajustar el audio basándose en un audio de referencia, de forma que puede ampliar la duración de un clip.
Y ahora, edición. Es posible (y probable) que el resultado generado por la IA no sea lo que estamos buscando exactamente, por lo que la herramienta nos permite editar el sonido. Siempre mediante texto, podemos convertir el audio generado en un audio de referencia, ajustar el tempo, la estructura, añadir patrones que se repiten (para los estribillos, por ejemplo), aumentar o reducir la intensidad o, simplemente, crear un bucle (ideal para la música de fondo en un vídeo).
El Photoshop de la música. La capacidad de edición es lo que hace diferente al modelo de Adobe con respecto a otras propuestas disponibles o en desarrollo. Según ha expresado Nicholas Bryan, Senior Research Scientist en Adobe Research:
"Una de las cosas más interesantes de estas nuevas herramientas es que no se limitan a generar audio, sino que lo elevan al nivel de Photoshop al ofrecer a los creadores el mismo tipo de control profundo para dar forma, ajustar y editar su audio. Es una especie de control a nivel de píxel para la música".
De momento, una investigación. Eso es ahora mismo este proyecto, una investigación. No sabemos si Adobe tiene intención de lanzarlo de forma comercial o si estará disponible en forma de demo de alguna manera, aunque viendo los recientes movimientos de la compañía cabe esperar que veamos esta IA integrada en alguno de sus productos más pronto que tarde. Podemos pensar en Premiere o Audition, sin ir más lejos. Cuestión de tiempo.
Imagen | Unsplash, Adobe
via Robótica e IA - Xataka https://ift.tt/trzQ15Z
No hay comentarios:
Publicar un comentario