martes, 15 de octubre de 2024

La voz de este anuncio no es real, se la han clonado al mayor influencer de tecnología usando IA. No es la primera vez que pasa

La voz de este anuncio no es real, se la han clonado al mayor influencer de tecnología usando IA. No es la primera vez que pasa

Una muestra de 15 segundos. Eso es todo lo que necesita una herramienta como el generador de voces desarrollado por OpenAI para clonar una voz. No es el único sistema de este tipo, ni mucho menos, pero nos da una idea de lo que se puede conseguir con apenas unos segundos de audio. Ahora imaginemos lo que podría pasar si fuésemos uno de los mayores influencers del mundo de la tecnología con cientos, miles de horas de contenido publicado y accesible en Internet.

Pues lo que le ha pasado a Marques Brownlee.

Soy yo, pero no soy yo. Marques Brownlee acumula 19,6 millones de suscriptores en YouTube, 4,9 millones de seguidores en Instagram y 6,3 millones en X. A sus 30 años de edad, el estadounidense es uno de los creadores de contenido más populares del mundo de la tecnología y una de las caras (y voces) más reconocibles del sector. Tiene una forma de hablar, unas muletillas, un tono y unas frases más propias y, por supuesto, miles y miles de horas de su voz publicadas en Internet.

¿Y qué ha pasado? Que una empresa que fabrica tarjetas de visita digitales ha clonado su voz para usarla en un anuncio publicado en Instagram. Según explica Brownlee en una publicación en Threads, "hay empresas reales que utilizan una copia de mi voz creada por IA para promocionar sus productos". En sus propias palabras, "realmente no hay ninguna repercusión por ello, aparte de ser conocida como una empresa sospechosa que está dispuesta a caer tan bajo para vender un producto".

Detectable, pero pasable. Si escuchamos el vídeo grabado por el propio creador y prestamos atención, notaremos que la voz es sintética. Aunque el "ok" inicial y la primera frase podrían colar perfectamente, el resto del audio carece de entonación, es una locución plana. Con su voz, o mejor dicho, con una copia bastante pasable, pero demasiado plana. Un oído más o menos entrenado o alguien interesado en el mundo de la tecnología podría detectar su origen sintético sin mayor problema, pero no siempre es el caso.

Abuelas tejiendo generadas con IA Abuelas tejiendo generadas con IA Esta captura de pantalla se tomó en una página con 145.000 'me gusta' dedicada sola y exclusivamente a publicar imágenes de abuelas tejiendo generadas con IA. Cada foto tenía entre 600 y 1.000 'me gusta', entre 60 y 200 comentarios y entre 10 y 20 compartidos | Imagen: Xataka

Eso es algo que nos ha enseñado Internet. En Facebook hay páginas que publican imágenes de personas haciendo tartas o abuelas tejiendo generadas por IA, y muchas personas se creen que son fotos reales, comentan, interactúan... Lo mismo con esta "cafetería" que dice ser la "cafetería nº1 de Austin" y que, realmente, está llena de fotos de dulces generados por IA. La cuenta tiene 72.000 seguidores y sus imágenes infinidad de interacciones.

No es la primera vez. Y seguramente tampoco sea la última. A Jeff Geerling, otro youtuber de tecnología y programador, también le clonaron la voz recientemente para usarla en un anuncio. El propio CEO de la empresa que se anunciaba pidió perdón y se excusó, diciendo que el vídeo lo había hecho un recién graduado sin experiencia y que se publicó sin aprobación.

Una youtuber ucraniana, Olga Loiek, también fue víctima de algo similar, pero todavía más bestia. Loiek es ucraniana y estudia en la Universidad de Pensilvania, pero se encontró un avatar con su cara y cuerpo haciéndose pasar por una chica rusa que publicaba vídeos en las redes sociales chinas. En los vídeos, este avatar hablaba de las buenas relaciones entre Rusia y China y hasta afirmaba estar buscando una pareja china.

Imagen de portada | Marques Brownlee 1, 2

En Xataka | La IA generativa tiene un enorme problema con el contenido sin licencia para entrenarse. Adobe está intentando solucionarlo



via Robótica e IA - Xataka https://ift.tt/I10Us5a

No hay comentarios:

Publicar un comentario