La Comisión Europea ha propuesto un paquete de nuevas normas destinadas a limitar el uso de Inteligencia Articial y el empleo de sistemas de reconocimiento facial en espacios públicos. El objetivo de estas medidas, de acuerdo con el organismo, es «garantizar la seguridad y los derechos fundamentales de las personas y las empresas» y fortalecer la adopción, la inversión y la innovación en IA. «Al establecer los estándares, podemos allanar el camino hacia la tecnología ética en todo el mundo y garantizar que la UE siga siendo competitiva en el camino. Nuestras normas, preparadas para el futuro y favorables a la innovación, intervendrán donde sea estrictamente necesario: cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE», ha destacado Margrethe Vestager, comisaria europea de Competencia, sobre el nuevo paquete de normas. Cuatro niveles de riesgo La Comisión ha establecido cuatro niveles de riesgo en el uso de Inteligencia Artificial que pueden ser perjudiciales para el ciudadano. El más peligroso recibe la categoría de «riesgo inaceptable». Dentro de este grupo figuran los sistemas considerados «una clara amenaza para la seguridad, los medios de vida y los derechos de las personas», que pasan a estar prohibidos con la nueva legislación. Ese es el caso de aquellos sistemas «que buscan manipular el comportamiento humano» (por ejemplo, juguetes que utilizan asistencia de voz que fomenta el comportamiento peligroso de los menores) y de aquellos que permiten la 'puntuación social' de los Gobiernos con el fin de diferenciar a los ciudadanos y, de este modo, crear sesgos. En segundo lugar figuran los sistemas de «alto riesgo». Dentro de este grupo se encuentra el empleo de sistemas de Inteligencia Artificial en infraestructuras críticas, como el transporte, en los casos en los que puedan poner en riesgo la salud del ciudadano. También figura el uso de sistemas para determinar el acceso a la educación y el curso profesional (por ejemplo, en la calificación de exámenes), su aplicación en cirugía asistida por robots, en reclutamiento de trabajadores, en servicios públicos o privados esenciales (como podría ser la solicitud de un crédito bancario), en inmigración y administración de la justicia. De acuerdo con la Comisión, todos los sistemas de «alto riesgo» estarán sujetos «a estrictas obligaciones» antes de que puedan comercializarse. Entre ellas se incluye el empleo de un análisis de riesgos, la posibilidad de trazabilizar los resultados, el empleo de documentación detallada, la supervisión humana y, además, los sistemas deben ser «robustos, seguros y precisos». En tercer lugar figuran los sistemas que representan «un riesgo limitado», como es el caso de chatbots. Cuando una empresa o institución los utilice «los usuarios deben ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o dar un paso atrás». En cuarto y último, la Comisión destaca los sistemas de «riesgo mínimo», que es en donde se engloban la mayoría de los que emplean IA, como es el caso de los videojuegos o de las aplicaciones de imagen. Por el momento, este reglamento es una propuesta, por lo que no ha entrado en vigor. La Eurocámara y los distintos gobiernos que conforman la UE deben aprobarlo, por lo que el proceso para su implementación podría llevar todavía algo más de un año. El reconocimiento facial, prohibido en espacios públicos El reconocimiento facial es uno de los principales problemas éticos a los que se ha enfrentado la tecnología en la última década. De acuerdo con la nueva normativa de la Comisión Europea, todos los sistemas de identificación biométrica, que permiten reconocer a un ciudadano por sus rasgos, pasan a formar parte del grupo de «alto riesgo» y su empleo estará sujeto a requisitos estrictos. De este modo, su uso en espacios públicos pasará a estar prohibido salvo en circunstancias muy puntuales. «Por ejemplo, cuando sea estrictamente necesario para buscar un niño desaparecido, para prevenir una amenaza terrorista específica e inminente o para detectar, localizar, identificar o enjuiciar a un perpetrador o sospechoso de un delito grave», destaca la Comisión. Además, su uso deberá ser autorizado previamente por un órgano judicial u otro organismo independiente y dentro de los límites adecuados en el tiempo, el alcance geográfico y las bases de datos buscadas.
via Tecnología https://ift.tt/2PdyZwO
No hay comentarios:
Publicar un comentario