Alemania, Francia e Italia han tomado las riendas de la regulación de la inteligencia artificial (IA) en Europa poco después del acuerdo que alcanzó el G7 el pasado 30 de octubre. El Gobierno de EEUU defiende la elaboración de una regulación permisiva que no ponga trabas al desarrollo de esta tecnología disruptiva, mientras que Francia y Alemania comparten una visión mucho más estricta que persigue regular la IA recurriendo a un control férreo.
Finalmente la opción que logró el respaldo mayoritario no fue ni la de EEUU ni la de Europa; fue la de Japón. Su propuesta se encuentra a medio camino de la permisividad estadounidense y el rigor europeo, aunque su laxitud no entra en conflicto con la necesidad de proteger los derechos de autor o de evitar la exposición de los datos personales. Esta es, precisamente, su mayor fortaleza y la razón por la que esta tercera vía finalmente ha logrado imponerse.
No obstante, aún queda mucho trabajo por hacer. Y es que el acuerdo que alcanzó el G7 hace apenas tres semanas propone un código de conducta que presumiblemente debería de ser respetado por las empresas que trabajan en el ámbito de la IA. Eso sí, su entrada en vigor requiere recorrer un itinerario en el que están involucrados numerosos organismos internacionales, como la OCDE (Organización para la Cooperación y el Desarrollo Económicos) o la Alianza Global sobre inteligencia artificial.
Europa se mantiene firme y continúa trabajando en una ley estricta
El código de conducta que propone el acuerdo al que ha llegado el G7 es voluntario, por lo que no va a dar lugar a la aprobación de una o varias leyes. Sin embargo, la regulación en la que está trabajando la Unión Europea desde mayo de 2022 sí dará forma a una ley. Su estrategia defiende clasificar los sistemas de IA en tres niveles con diferentes prestaciones que serán regulados mediante distintas restricciones dependiendo de las capacidades de cada uno de ellos.
Alemania, Francia e Italia defienden la necesidad de regular la aplicación de la inteligencia artificial y no la tecnología en sí misma
Este es el contexto en el que Alemania, Francia e Italia han definido el armazón en el que se elaborará la futura regulación europea con el propósito de que esté lista y entre en vigor lo antes posible. No obstante, la propuesta de estos tres países tendrá que ser debatida próximamente en la Comisión Europea, el Parlamento Europeo y el Consejo de Europa para dar voz a las demás naciones con representación en estas instituciones.
El documento que han elaborado los tres países que he mencionado en el párrafo anterior defiende la necesidad de regular la aplicación de la inteligencia artificial y no la tecnología en sí misma. "Los riesgos inherentes a la IA residen en el uso que vamos a dar a los sistemas de inteligencia artificial y no en la propia tecnología", reza la propuesta de Alemania, Francia e Italia. Además, especifica que "los modelos deberán incluir información relevante que permita comprender su funcionamiento, sus capacidades y sus límites, y deben estar soportados por las mejores prácticas de la comunidad de desarrolladores".
En cualquier caso, este documento inicialmente no defiende la imposición de sanciones. Lo que propone es que si se producen violaciones del código de conducta una vez que haya transcurrido un cierto periodo de tiempo los reguladores pongan a punto un sistema de sanciones ajustado al alcance de las infracciones. Veremos cómo reciben los demás países de la Unión Europea el documento firmado por Alemania, Francia e Italia y si finalmente el movimiento Open Source es el gran perjudicado por una regulación menos laxa que la de EEUU o China, como defienden algunos expertos.
Imagen de portada: Diliff
Más información: Reuters
via Robótica e IA - Xataka https://ift.tt/RvcWBls
No hay comentarios:
Publicar un comentario