sábado, 9 de diciembre de 2023

Ocho claves para entender la primera ley de inteligencia artificial

La Unión Europea ha alcanzado un acuerdo para sacar adelante su ambiciosa Ley de Inteligencia Artificial (IA) . Después de tres días de largas y duras negociaciones, el Parlamento y el Consejo consiguieron, al filo de la medianoche del sábado, evitar que la regulación se aplazara hasta 2024. La normativa es pionera a nivel global, tanto por su extensión como por su enfoque, basado en el riesgo. Aspira a convertirse en un ejemplo para el resto de territorios que, actualmente, estudian cómo poner bajo control la mayor revolución tecnológica que ha conocido el mundo desde la llegada de internet. Una herramienta que ya está teniendo un importante efecto en el presente, y que, en el futuro más cercano, promete transformar completamente la vida misma de los ciudadanos. «Creo que este es un día histórico», afirmó Thierry Breton, comisario europeo de Comercio y una de las figuras clave en las negociaciones junto a la española Carme Artigas. La iniciativa ha salido adelante también por la presión de la presidencia española. El Gobierno de España tenía entre ceja y ceja sacar adelante esta normativa durante su presidencia dentro de la UE. Carme Artigas , secretaria de estado de Digitalización e Inteligencia Artificial, ha sido la encargada de dirigir las negociaciones entre el Parlamento y el Consejo. «El acuerdo logra mantener un equilibrio extremadamente delicado: impulsar la innovación y la adopción de la inteligencia artificial en toda Europa, respetando plenamente los derechos fundamentales de nuestros ciudadanos», valoró al día siguiente en un comunicado. ¿Qué ha decidido Europa? ¿habrá multas? Desde la primera propuesta de ley, realizada por el Parlamento en la pandémica primavera de 2021, la UE ha abogado por regular los usos posibles de la tecnología en base a su potencial peligrosidad, no la tecnología como tal. Un enfoque que ha sido ampliamente aplaudido por académicos y científicos. «Es el mejor que se podía tomar. Por ejemplo, no tiene sentido que se regule un cuchillo como tal, sino los malos usos que se le puedan dar», explica a ABC Juan Bernabé-Moreno, director de la división de investigación de IA de IBM en Europa. La infracción de la ley conlleva multas que pueden ascender hasta el 7% de la facturación anual de las empresas de desarrollo. ¿Cuál es la escala de riesgos que establece? La UE ha dividido los usos de la IA en cuatro grupos diferentes. Los sistemas de IA de riesgo inaceptable quedan completamente prohibidos. Los sistemas de IA de alto riesgo, aplicados, por ejemplo, al transporte o al acceso a la educación o a un trabajo, deberán cumplir con una serie de requisitos y obligaciones para poder operar en suelo comunitario. En tercer lugar, los sistemas de riesgo limitado deben cumplir, simplemente, con obligaciones de transparencia. Por ejemplo, una herramienta de inteligencia artificial generativa tendrá que marcar que sus resultados han sido creados por una máquina. En último lugar aparecen los sistemas considerados de riesgo mínimo o nulo, como los videojuegos, que no estarán sujetos a ninguna obligación. ¿Qué usos están prohibidos? Los sistemas que puedan ser empleados para manipular el comportamiento de las personas, las soluciones de puntuación social en base a creencias o etnia, las herramientas de reconocimiento de emociones en el ámbito laboral y educativo y, en algunos casos, la vigilancia policial predictiva. ¿Por qué ha sido tan difícil aprobar la normativa europea? Cuando el Parlamento dio luz verde al inicio de las negociaciones de la normativa con el Consejo, a mediados de este año, lo hizo estando completamente dividido sobre la prohibición total del uso de tecnología de reconocimiento facial por parte de las autoridades policiales. Mientras algunos parlamentarios abogaban por dejar vía libre a su uso en casos muy concretos, otros apostaban por vetarlo de forma general, ya que consideraban que la privacidad de la ciudadanía debía primar sobre la seguridad. La regulación de la IA generativa, es decir, de herramientas como el robot conversacional ChatGPT, también ha sido un punto de desencuentro. ¿Se permitirá el reconocimiento facial? Finalmente, la UE ha apostado por permitir el uso de reconocimiento facial en espacios públicos por parte de las autoridades policiales. Ahora bien, siempre bajo aprobación judicial y para casos muy concretos, como puede ser la lucha contra el terrorismo o la búsqueda de sospechosos de haber cometido algún delito grave. ¿Cómo afectará a ChatGPT? La inteligencia artificial generativa, capaz de generar texto, imágenes o vídeo a demanda, deberá ser transparente sobre su funcionamiento. Tendrá que marcar sus resultados para que se sepa que proceden de una máquina y las empresas que hay detrás deberán compartir información sobre el proceso de entrenamiento y sobre el uso de datos sujetos a derechos de autor. La UE, además, ha anunciado la creación de una nueva Oficina de la IA que se encargará de supervisar el funcionamiento de este tipo de soluciones. ¿Cuándo será efectiva? Si nada se tuerce, la normativa debería entrar en vigor dentro de dos años. No sería efectiva hasta 2026. Demasiado tiempo, atendiendo al rápido desarrollo de la inteligencia artificial. «Cuando lleguemos a esta normativa será muy tarde y las grandes empresas habrán conseguido que sus tecnologías se hayan convertido en un estándar de facto», lamenta Ulises Cortés, catedrático de IA en la Universidad Politécnica de Cataluña. ¿En qué se diferencia la europea de la regulación de otros países? La ley de la UE aspira a poner bajo control todos los usos de la tecnología. Mientras tanto, Estados Unidos ha lanzado una orden ejecutiva mucho más limitada, que obliga a los desarrolladores a informar al gobierno sobre sus lanzamientos y demostrar que son seguros. Se trata, esencialmente, de un primer paso para la futura llegada de una normativa más amplia. Por su parte, China reguló en verano la IA generativa, cuyo funcionamiento será controlado por el Estado chino. Claudio Novelli, investigador posdoctoral del departamento de Estudios Jurídicos de la Universidad de Bolonia (Italia) también cree que esto solo es el principio. «Aún quedan muchos detalles por concretar, como el papel de la Oficina de Inteligencia Artificial y su colaboración con las autoridades nacionales», explica en declaraciones a SMC. Otro paso crucial, en su opinión, será ver cómo evaluarán quienes implementen la ley el impacto de sus sistemas de IA en los derechos fundamentales. «Los próximos 24 meses serán cruciales. Determinarán si la UE ha alcanzado realmente su objetivo de liderar la regulación de la IA, estableciendo una referencia mundial para una gobernanza responsable e innovadora de esta».

via Tecnología https://ift.tt/jhUsoqC

No hay comentarios:

Publicar un comentario