La Inteligencia Artificial tiene un enorme potencial en ámbitos tan diversos como la salud, el transporte, la energía, la agricultura, el turismo o la ciberseguridad, pero también entraña sus riesgos y consecuencias negativas para los individuos y la sociedad cuando los algoritmos violan valores y derechos fundamentales. Por este motivo, la Unión Europea ha propuesto un marco jurídico ético para velar por una inteligencia artificial digna de confianza.
Como explica Francisco Herrera, catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada y miembro de la Real Academia de Ingeniería, se plantea la prohibición de riesgos que sea inadmisibles y contradigan los valores éticos de la UE. En concreto, aquellos que constituyen una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Estarán permitidas, aunque sujetas a estrechos controles, las tecnologías consideradas de alto riesgo: aplicaciones empleadas en infraestructuras críticas como los transportes, exámenes o procesos de selección, seguridad de productos como la cirugía asistida por robots, mercado laboral, aplicación de las leyes, gestión de la migración, peticiones de asilo y control de fronteras, y los sistemas de identificación biométrica remota.
El reglamento también contempla los casos de riesgo medio o nulo de los algoritmos de inteligencia artificial.
La propuesta de la UE tendrá que negociarse en los próximos meses con los estados miembros. El objetivo --advierte Francisco Herrera-- es que los ciudadanos podamos disfrutar con plenas garantías de la Inteligencia Artificial sin frenar su desarrollo.
Escuchar Audio
via Ciencia y tecnología en rtve.es https://ift.tt/3EU1B2x
No hay comentarios:
Publicar un comentario