jueves, 11 de mayo de 2023

La UE ya tiene su primer marco para regular la IA: nada de reconocimiento facial y más transparencia para ChatGPT

La UE ya tiene su primer marco para regular la IA: nada de reconocimiento facial y más transparencia para ChatGPT

La Artificial Intelligence Act es un conjunto de medidas que están dirigidas a regular el desarrollo y uso de sistemas de inteligencia artificial en Europa. El texto ha sido adoptado por una amplia mayoría en este organismo, y eso allana el camino para su aprobación definitiva y su aplicación en los próximos meses.

La AI Act, a punto de nacer definitivamente. Como indican en el Parlamento Europeo, la Artificial Intelligence Act se postula como el primer conjunto de leyes dedicadas a regular la inteligencia artificial. Hoy el Comité del Mercado Interno y el Comité de Libertades Civiles han aprobado el texto con 84 votos a favor, 7 en contra y 12 abstenciones. Los Miembros del Parlamento Europeo (MEPs) han aprobado además importantes enmiendas a la propuesta de la Comisión Europea, que se creó en 2021

Prohibido el reconocimiento facial. Entre las enmiendas y cambios están las prohibiciones que afectan a esta tecnología. Una de las más determinantes es la prohibición de la categorización biométrica y la recolección y rastreo de imágenes de caras —por ejemplo, con cámaras de seguridad— para crear bases de datos para reconocimiento facial. De hecho los sistemas de información biométrica, que se permitieron inicialmente en situaciones específicas como secuestros o ataques terroristas, han acabado siendo prohibidos de forma total (excepto en la persecución de delitos graves y solo con autorización judicial).

Sara

De puntuación social, nada. También se prohibe el uso de software de reconocimiento de emociones entre las agencias de seguridad, los controles fronterizos, los lugares de trabajo y los entornos educativos. El Parlamento Europeo también veta el uso de sistemas de puntuación social, es decir, aquellos que clasifican a la gente basándose en su comportamiento social, su status socio-económico o sus características personales.

La sanidad y la política, vigiladas. Los MPEs expandieron además la definición de áreas de alto riesgo a la hora de usar sistemas de IA. Entre ellos destacan el ámbito de la sanidad, pero también aquellos utilizados para "influir a los votantes en campañas políticas" o los que se usan en redes sociales (con más de 45 millones de usuarios) para recomendar contenidos.

ChatGPT debe ser más transparente. Entre las medidas más novedosas está la obligación de que los modelos generativos como ChatGPT deberán cumplir con requisitos de transparencia adicionales, como desvelar que el contenido ha sido generado por inteligencia artificial. Estos modelos deben ser diseñados para evitar generar contenido ilegal y para no publicar resúmenes de datos protegidos por derechos de autor que se usaron para el entrenamiento. O lo que es lo mismo: nada de plagios, aunque sean en forma de resumen.

Próximos pasos. Antes de que el texto final de la ley inicie su negociación en el Consejo Europeo, el borrador necesitará ser apoyado por todo el Parlamento. Se espera que esa votación tenga lugar durante las sesiones que se celebrarán entre el 12 y el 15 de junio próximos.

Bienvenida, pero algo obsoleta. La AI Act es sin duda un primer paso importante para regular el desarrollo y uso de los sistemas de inteligencia artificial, pero el texto aprobado por mayoría en el Parlamento Europeo tiene un problema previsible: está basado en la propuesta de 2021, y desde entonces el campo de la IA ha avanzado de forma asombrosa. Es cierto que se contempla por ejemplo el uso de sistemas como ChatGPT, pero el texto no menciona nada sobre la Inteligencia Artificial General (AGI) cuya aparición parece más próxima que nunca y que impone riesgos importantes.

Imagen: European Parliament

En Xataka | Estrategia Nacional de Inteligencia Artificial: qué pretende el Gobierno conseguir en los próximos dos años con 600 millones de euros



via Robótica e IA - Xataka https://ift.tt/jFDSd1Y

No hay comentarios:

Publicar un comentario