lunes, 24 de octubre de 2022

Los peligros detrás de la IA que crea imágenes en segundos

La inteligencia artificial es capaz de hacer cosas que, hace apenas un puñado de años, hubiesen sonado a ensoñación. Y parece que nunca termina de crecer. A día de hoy, gracias a su uso, podemos hasta crear obras de arte e imágenes delirantes simplemente escribiendo unas pocas palabras en una barra de búsqueda. Precisamente, eso es lo que proponen herramientas como la puntera DALL-E , presentada por OpenAI el pasado abril, o Midjourney . La aparición de estas herramientas, que igual te ponen a un hombre sobre la superficie de Marte que 'dibujan' un retrato ecuestre de un robot al estilo Picasso, ha cautivado a artistas, diseñadores y, desde hace escasas semanas, también a usuarios de toda condición. Y es que las dos herramientas están abiertas en fase beta para quien quiera emplearlas . De acuerdo con los datos de OpenAI, actualmente 1,5 millones de personas utilizan DALL-E para generar, aproximadamente, 2 millones de imágenes diarias. Teniendo en cuenta el desarrollo de estas herramientas, expertos en inteligencia artificial comienzan a mostrarse preocupados por su potencial para hacer el mal . Especialmente en el momento en el que las plataformas se refinen más. «Desafortunadamente cada vez que tenemos un avance tecnológico, existe la posibilidad de usos negativos», explica Josep Curto, profesor de Informática en la Universidad Oberta de Cataluña y experto en IA. En conversación con ABC, el docente apunta que este tipo de herramientas podrían ser empleadas para hacer el mal y, además, de diversas forma s: «Las 'fake news' es uno de los posibles usos Sin embargo, existen otros múltiples, como por ejemplo, la creación de documentos falsos, de fomentar sesgos de género, de reforzar estereotipos raciales, de crear imágenes con contenido sexual o pedófilo, vulnerar el copyright de autores,… estoy seguro que el límite es nuestra imaginación». OpenAI, como Midjourney, ha puesto algunos cotos a su herramienta para evitar, en la medida de lo posible, que pueda ser utilizada para hacer el mal. La plataforma, actualmente, no permite la generación de imágenes de carácter sexual. Tampoco aquellas que, potencialmente, puedan incitar al odio o la violencia. Además, no permite el uso de nombres de políticos. No obstante, esto no implica que la herramienta no tenga potencial para la desinformación tal y como funciona actualmente. Arriba, imagen creada por DALL-E después de introducir las palabras 'manifestantes ucranianos en las calles de Moscú'. Abajo, de izquierda a derecha, 'retrato de un robot dibujado por Picasso' y 'silla con la forma de Pikachu' R. A. Por ejemplo, es posible reproducir imágenes de manifestaciones proucranianas en ciudades como Moscú. Quizá el resultado no siempre sea el más realista , pero «da una idea de lo que podría llegar a permitir en el futuro», dice a este periódico Juan Ignacio Rouyet, profesor especializado en inteligencia artificial de la Universidad Internacional de La Rioja (UNIR). «El peligro de que se utilice inteligencia artificial para generar imágenes que son 'fake news' no solo está ahí, sino que también va a ir a más porque, seguro, la tecnología mejorará. Eso va a ser así. La IA siempre aprende y mejora», señala el experto. Este, además, compara el potencial de estas IA para causar problemas con el que tiene el ' deepfake ', esa tecnología capaz de transformar la voz y el rostro de una persona en una grabación. 'Sexy worker' Plataformas como DALL-E también tienen problemas con los sesgos femeninos. Por ejemplo, Craiyon , herramienta más modesta que se popularizó notablemente este verano gracias a las redes sociales, solo muestra imágenes de mujeres ligeras de ropa cuando se escribe en su interior 'trabajador sexy' ('sexy worker', en inglés). Resultados de 'sexy worker' en Craiyon R. A. Aunque DALL-E ha intentado evitar este problema evitando mostrar resultados con este tipo de términos, la IA sigue ofreciendo en algunas ocasiones creaciones que podrían ser catalogados de sexistas. Por ejemplo, como ha comprobado ABC, si el usuario utiliza la herramienta para crear imágenes de un 'presidente del gobierno', la herramienta no muestra resultados entre los que se recoja una mujer a no ser que afine más la búsqueda. Tampoco conseguimos que aparezcan gobernantes negros entre los resultados hasta que añadimos la palabra 'África'. Cuatro imágenes ofrecidas por la IA cuando ABC utiliza la palabra 'presidente' R. A. Con todo, los expertos reconocen el enorme potencial que siguen teniendo estas herramientas cuando caen en buenas manos. Especialmente, para diseñadores y artistas. MÁS INFORMACIÓN noticia No Crean una inteligencia artificial que descubre algoritmos más eficientes que cualquier humano o máquina noticia Si ¿Pueden las máquinas tomar decisiones justas? «Con este tipo de herramientas cualquiera que quiera puede ser un artista, aunque no sepa ni agarrar un pincel», dice Rouyet. «Pueden ayudar en la creación de contenido multimedia en páginas web, videojuegos, revistas y demás», apunta, por su parte, el experto en inteligencia artificial de la Universidad Oberta de Cataluña.

via Tecnología https://ift.tt/sAKOZiJ

No hay comentarios:

Publicar un comentario