miércoles, 25 de octubre de 2023

Teorías conspirativas y rendiciones 'fallidas': los 'deepfakes' ya son armas en tiempos de guerra

En la red hay que andar con pies de plomo y dudar, prácticamente, de cualquier publicación que intente remover los sentimientos de los usuarios. Más, si cabe, cuando el vídeo, imagen o tuit hace referencia a un conflicto armado como la invasión de Ucrania o la guerra de Israel en Gaza . En cualquier momento, uno de estos contenidos puede consistir en un 'deepfake' , un montaje realizado con inteligencia artificial (IA), donde la ficción imita la realidad con un grado de detalle casi perfecto y con un margen de error minúsculo para el ojo que no esté entrenado en diferenciarlos. En estos, se moldea una 'cara' falsa construida por inteligencia artificial, que se fusiona con un vídeo auténtico, con el fin de recrear un acontecimiento que nunca tuvo lugar realmente. Aunque falsos, pueden parecer convincentes y a menudo se producen para imitar o burlarse de una persona. O al menos esas eran sus intenciones al comienzo. Desde hace un tiempo los 'deepfakes' se usan como armas para influir en la opinión publica de grandes guerras. El conflicto ruso-ucraniano fue el primer ejemplo real de uso de 'deepfakes', según explican los investigadores de un estudio llevado a cabo por la University College Cork (UCC). En el trabajo, que se publica hoy en la revista PLOS ONE , examinaron tuits de 2022 sobre la invasión, en lo que constituye el primer análisis del uso de 'deepfakes' en la desinformación y la propaganda bélica. «Gran parte de la investigación previa sobre 'deepfakes' se ha centrado en los posibles daños futuros de la tecnología. Sin embargo, nosotros nos hemos centrado en cómo estos vídeos e imágenes trucados ya están afectando a las redes sociales, como hemos visto durante la invasión rusa de Ucrania», detallan en la investigación. Noticia Relacionada estandar No La inteligencia artificial 'revive' a víctimas infantiles de crímenes: «Usar la cara y la boca de un niño que nos han arrebatado... no hay palabras» Alexia Columba Jerez La tendencia viral avanza en plataformas como Tik Tok ante el asombro de la mayoría de las familias afectadas, a las que nadie les pide permiso La 'rendición' de Zelenski o la 'paz' de Putin En el estudio se analizaron cerca de 5.000 tuits en X (antes Twitter) en los primeros siete meses de 2022 para explorar cómo reacciona la gente ante los contenidos 'deepfake' en línea y descubrir pruebas de los perjuicios que causan a la confianza. Descubrieron grandes debates, casi 'batallas campales' en la red, reaccionando a los montajes. Por un lado, algunos expresaban preocupación, conmoción o confusión por las noticias. Otros, en cambio, reaccionaron positivamente a los montajes, especialmente contra aquellos que consideraban sus «rivales políticos». Uno de los casos más sonados fue el 'deepfake' que presentaba falsamente al presidente ucraniano Volodímir Zelenski rindiéndose a Rusia. Un vídeo publicado en el medio 'Ucrania 24', tras sufrir un ataque de unos ciberdelincuentes, que aprovecharon el momento para colgar el mensaje. Lo mismo sucedió con Vladimir Putin meses más tarde, en un vídeo emitido en varias cadenas rusas tras un hackeo, donde el presidente proclamaba la paz y el alto el fuego con Ucrania. Código Desktop As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes. I've seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a— Shayan Sardarizadeh (@Shayan86) March 16, 2022 Imagen para móvil, amp y app Código móvil As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes. I've seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a— Shayan Sardarizadeh (@Shayan86) March 16, 2022 Código AMP As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes. I've seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a— Shayan Sardarizadeh (@Shayan86) March 16, 2022 Código APP As a matter of principle, I never post or link to fake or false content. But @MikaelThalen has helpfully whacked a label on this Zelensky one, so here goes. I've seen some well-made deepfakes. This, however, has to rank among the worst of all time.pic.twitter.com/6OTjGxT28a— Shayan Sardarizadeh (@Shayan86) March 16, 2022 «No hay pruebas de que los propios gobiernos —ucraniano o ruso— hayan creado los 'deepfakes', pero queda claro que detrás de ellos hay motivaciones políticas para influir en el desarrollo del conflicto», explica para ABC John Twomey, investigador principal del estudio. Prueba de ello es el 'Fantasma de Kiev' , el que fue el mayor 'deepfake' propagandístico que se realizó en el conflicto, y se creó al comienzo del mismo. Cuando comenzaron los primeros bombardeos rusos, un usuario de Twitter vendió la historia de que un piloto ucraniano estaba defendiendo el país como si se tratase de un lobo solitario, atacando y derribando a más de seis cazas rusos por su cuenta. Toda la historia, además de las supuestas imágenes del 'Fantasma de Kiev', eran falsas. Se habían utilizado escenas de videojuegos e imágenes trucadas de otros soldados ucranianos para recrear un héroe de guerra falso. Código Desktop На фото – пілот МіГ-29. Той самий «Привид Києва». Він викликає жах у ворогів та гордість в українців 🇺🇦 На його рахунку 6 перемог над російськими пілотами! З такими потужними захисниками Україна точно переможе! pic.twitter.com/GJLpcJ31Si— Петро Порошенко (@poroshenko) February 25, 2022 Imagen para móvil, amp y app Código móvil На фото – пілот МіГ-29. Той самий «Привид Києва». Він викликає жах у ворогів та гордість в українців 🇺🇦 На його рахунку 6 перемог над російськими пілотами! З такими потужними захисниками Україна точно переможе! pic.twitter.com/GJLpcJ31Si— Петро Порошенко (@poroshenko) February 25, 2022 Código AMP На фото – пілот МіГ-29. Той самий «Привид Києва». Він викликає жах у ворогів та гордість в українців 🇺🇦 На його рахунку 6 перемог над російськими пілотами! З такими потужними захисниками Україна точно переможе! pic.twitter.com/GJLpcJ31Si— Петро Порошенко (@poroshenko) February 25, 2022 Código APP На фото – пілот МіГ-29. Той самий «Привид Києва». Він викликає жах у ворогів та гордість в українців 🇺🇦 На його рахунку 6 перемог над російськими пілотами! З такими потужними захисниками Україна точно переможе! pic.twitter.com/GJLpcJ31Si— Петро Порошенко (@poroshenko) February 25, 2022 Un chute para las teorías conspirativas Además, el estudio ha revelado que los 'deepfakes' ayudan a engendrar y cultivar teorías conspirativas y un escepticismo malsano. «Los usuarios ponen en duda cualquier anuncio político, y cuando ven algún gesto o movimiento extraño, piensan que son un doble o directamente un vídeo falso, y que los gobiernos por ejemplo están ocultando la enfermedad o muerte de sus líderes políticos», detalla Twomey. Menciona el caso de un vídeo de Putin donde su mano parecía atravesar un micrófono, cuando en realidad se trataba de error por la calidad del vídeo, a lo que se le denomina un 'artefacto'. «Hubo gente en Internet que afirmó que se trataba de un 'deepfake' y que Putin estaba ocultando una enfermedad. Por supuesto, el vídeo era real y la mano no atravesaba nada». Código Desktop The claim that Russian President Vladimir Putin spoke in front of a green screen today is false. A low quality video showing Putin's hand seemingly moving through a microphone appears to be a compression artifact. High quality video of the same clip shows no such issue. pic.twitter.com/rchVWo18xj— Mikael Thalen (@MikaelThalen) March 5, 2022 Imagen para móvil, amp y app Código móvil The claim that Russian President Vladimir Putin spoke in front of a green screen today is false. A low quality video showing Putin's hand seemingly moving through a microphone appears to be a compression artifact. High quality video of the same clip shows no such issue. pic.twitter.com/rchVWo18xj— Mikael Thalen (@MikaelThalen) March 5, 2022 Código AMP The claim that Russian President Vladimir Putin spoke in front of a green screen today is false. A low quality video showing Putin's hand seemingly moving through a microphone appears to be a compression artifact. High quality video of the same clip shows no such issue. pic.twitter.com/rchVWo18xj— Mikael Thalen (@MikaelThalen) March 5, 2022 Código APP The claim that Russian President Vladimir Putin spoke in front of a green screen today is false. A low quality video showing Putin's hand seemingly moving through a microphone appears to be a compression artifact. High quality video of the same clip shows no such issue. pic.twitter.com/rchVWo18xj— Mikael Thalen (@MikaelThalen) March 5, 2022 Del mismo modo, observaron cómo los usuarios acusaban falsamente un vídeo de Biden de ser un 'deepfake', donde se le veía con una mirada aparentemente extraña. «comentaban que el presidente tenía la mirada del valle inquietante, como si fuese un robot», explica Twomey. Código Desktop My eye can detect the uncanny valley instantly. This is 100% deepfake technology. They pasted Biden's face on an actor. I'd bet my career on it. https://t.co/QtkAnBdM1g— George Alexopoulos (@GPrime85) July 27, 2022 Imagen para móvil, amp y app Código móvil My eye can detect the uncanny valley instantly. This is 100% deepfake technology. They pasted Biden's face on an actor. I'd bet my career on it. https://t.co/QtkAnBdM1g— George Alexopoulos (@GPrime85) July 27, 2022 Código AMP My eye can detect the uncanny valley instantly. This is 100% deepfake technology. They pasted Biden's face on an actor. I'd bet my career on it. https://t.co/QtkAnBdM1g— George Alexopoulos (@GPrime85) July 27, 2022 Código APP My eye can detect the uncanny valley instantly. This is 100% deepfake technology. They pasted Biden's face on an actor. I'd bet my career on it. https://t.co/QtkAnBdM1g— George Alexopoulos (@GPrime85) July 27, 2022 Luchar contra los bulos de la IA Las consecuencias de esta intromisión en la verdad son claras para los investigadores: los usuarios desconfían de las publicaciones de las redes, se radicalizan con un bando u otro y dudan de la veracidad de los medios de comunicación. «Llega un momento que dudan completamente de cualquier imagen del conflicto», explican en el trabajo. «Investigadores y periodistas temen desde hace tiempo que los 'deepfakes 'tengan el potencial de socavar la verdad, difundir desinformación y minar la confianza en la veracidad de los medios informativos. Su mayor peligro es la capacidad para alterar lo que sabemos que es verdad cuando los vídeos falsos se creen auténticos y viceversa», afirma el doctor Conor Linehan, de la Facultad de Psicología Aplicada de la UCC. Por ello, apuntan a que se debe luchar contra los bulos de la IA educando a la gente sobre qué son los 'deepfakes', cuál es su potencial y cuáles son sus capacidades actuales y cómo evolucionarán en los próximos años.

via Tecnología https://ift.tt/Odei68u

No hay comentarios:

Publicar un comentario