viernes, 13 de julio de 2018

No es solo porno: los Deep Fakes y su potencial uso para manipulación política

Deep Fakes

Vídeos manipulados por Inteligencia Aritificial en los que vemos a personas hacer cosas que nunca hicieron en realidad. Eso son los Deep Fakes, que empezaron a saltar a los titulares a finales del año pasado por utilizarse para fabricar vídeos pornográficos de celebridades. Pero ¿y si el futuro de estos vídeos falseados estuviera también en la manipulación política?

Así lo afirma al menos el estudio que ha publicado esta semana el Center for a New American Security (CNAS), una organización bipartidista estadounidense sin ánimo de lucro que busca promover temas de seguridad entre los políticos. En el documento, la organización advierte de que los Deep Fakes políticos podrían ser tan reales como para engañarnos, y todo en un plazo de cinco años.

El estudio mete a este tipo de vídeos de contenidos falsificados en la categoría de la propaganda computacional, que se aprovecha de las pocas barreras que tienen las redes sociales para "difundir contenido falso, engañoso o hiperpartidista". Sobre los Deep Fakes en concreto, el informe dice lo siguiente:

"Los sistemas de IA son capaces de generar grabaciones de voz sintéticas realistas de cualquier individuo para quien hay un conjunto de datos de entrenamiento de voz lo suficientemente grande. Lo mismo pasa cada vez más también con el vídeo. Al escribir estas líneas, el audio y el video falsificados "Deep Fakes" se ven y suenan notablemente incorrectos, incluso para las personas no entrenadas. Sin embargo, al ritmo que estas tecnologías están progresando, es probable que estén a menos de cinco años de poder engañar al oído y los ojos no entrenados".

Es decir, en los Deep Fakes actuales existen ciertas limitaciones tecnológicas relacionadas con el vídeo y el audio que hacen que los vídeos puedan identificarse como falsos, incluso por personas no expertas. Según el estudio, los avances dentro de este tipo de tecnologías harán que, en cinco años, sea imposible distinguir si un vídeo falso de este tipo es impostado o es real.

Otros avisos sobre el peligro de los Deep Fakes

El estudio de CNAS no es el único que contempla el uso de los Deep Fakes en política con fines manipulativos. Hany Farid, experto en tecnología forense del Dartmouth College, explicaba la semana pasada a AP News que seguramente en las próximas elecciones de Estados Unidos se empezarían a ver Deep Fakes para intentar manipular a los votantes. "La tecnología, por supuesto, no conoce fronteras, por lo que espero que el impacto se propague por todo el mundo", declaró asegurando que sería un problema global.

Hasta Marco Rubio, senador de EEUU, también se ha mostrado preocupado y no ha descartado que las agencias extranjeras podrían aprovecharse de ellos para crear inestabilidad. Una tesis apoyada por Andrew Grotto en el mismo artículo de AP News, experto en seguridad del Centro para la Seguridad y la Cooperación Internacional en la Universidad de Stanford en California, quien ha asegurado que en uno o dos años va a ser realmente difícil para una persona distinguir entre un vídeo real y uno falso.

"Esta tecnología, creo, será irresistible para que los estados naciones la utilicen en campañas de desinformación para manipular la opinión pública, engañar a las poblaciones y socavar la confianza en nuestras instituciones", ha asegurado Grotto.

El pasado febrero, en Oxford se reunió un grupo de 26 investigadores de 14 instituciones académicas, de sociedad civil y relacionadas con la industria precisamente para analizar cómo la Inteligencia Artificial puede ser desplegada con fines maliciosos. Se reunieron para discutir el tema en una conferencia de dos días, y de ella salió un informe de 100 páginas en el que brevemente también se mencionan los Deep Fakes.

Sobre ellos, aseguran que su realismo es un ejemplo del principio del declive de la máxima "ver para creer", y se congratulan sobre cómo algunas plataformas sociales están empezando a bloquear este tipo de contenido. Además, también recomendaron a desarrolladores e ingenieros de IA que se tomen en serio el doble uso que se le puede dar a su trabajo, y que esta consideración influencie en sus prioridades.

Manipulando las palabras de políticos y famosos

Los Deep Fakes empezaron a hacerse populares en la red a finales del año pasado. La tecnología que los hace posibles nació a partir de una librería de machine learning llamada TensorFlow, que había sido creada por ingenieros de Google y era de código abierto. Consisten en entrenar a una IA lo suficiente como para que sea capaz de ponerle a las personas que aparecen en un vídeo las caras de otros famosos realizando los mismos gestos.

A los pocos meses, apareció una variante llamada Deep Video Portrait, con la que se pueden manipular vídeos para hacer que las personas que aparezcan en ellos digan lo que sus creadores quieran. Un ejemplo lo vimos en este vídeo manipulado de Obama, en el que hacen que el ex-presidente de Estados Unidos explique precisamente los peligros de los vídeos manipulados.

En este vídeo se notaba bastante que había habido un tratamiento digital, aunque según el informe de CNAS o el aviso de Grotto, en pocos años este tipo de tecnologías y algoritmos podrían hacerse mucho más eficaces a la hora de engañarnos y hacernos creer lo que sus creadores quieran. Sobre todo porque también hay una variante llamada Deep Voice en la que se usa el mismo aprendizaje profundo para que las IA puedan imitar voces.

En Magnet | No te creerás (y haces bien) lo que dice Obama en este vídeo



via Magazine - robotica-e-ia https://ift.tt/2KRMfUz

No hay comentarios:

Publicar un comentario