No hace falta pensar que la IA se convertirá en un supervillano al estilo Skynet para tener este debate. El potencial de la inteligencia artificial es enorme y todavía solo hemos rascado la superficie. ¿Cómo lograr que su impacto sea beneficioso para todos? Es una pregunta que se repitió una y otra vez durante el Global AI Summit 2022.
Aprovechamos nuestra presencia allí para hablar con distintos expertos en regulación y uso ético de los algoritmos. Estas han sido sus reflexiones sobre cómo nos aseguraremos que la IA no se nos vaya de las manos.
Nos afecta a todos. La inteligencia artificial es una herramienta. En ocasiones parece que "funcione sola", pero nada más lejos de la realidad. Hay un algoritmo detrás, hay una base de datos en la que se basa. Pese a que la mayoría coincide en que cada vez dejaremos que la IA se ocupe de una mayor parte del trabajo, también se recuerda que los humanos debemos seguir en el centro.
Constanza Gomez Mont, CEO de C Minds, organización colaboradora de la UNESCO para la IA ética, lo resume así: "la IA es una tecnología transversal. No hay forma de que no toque todos los sectores. Por ello hace falta una mirada crítica. Mantener un discurso público donde se tengan en cuenta los riesgos".
Hemos visto IAs en el mundo del arte, en la salud o en restauración. Cada cual más sorprendente y distinta. "El enfoque es distinto en cada sector, pero hay que llegar donde está esa intersección. Cada uno desde cada trinchera", apunta Constanza. Pese a que la IA es un concepto muy genérico, hay que intentar encontrar formas comunes de afrontarla.
Hay que ir a la raíz: los datos. Es el mantra más repetido. Datos, datos y más datos. La IA al final es detección de patrones en datos. Lamentablemente, las bases de datos sobre las que trabajan muchas inteligencias artificiales no siempre son las más precisas o adecuadas.
"Si no hay diversidad de datos, el resultado ya no podrá evitar estar sesgado". Constanza explica que hay que aplicar mejores políticas en la revisión de los datos y prepararlos adecuadamente. Ya no es solo que estos datos estén bien ordenados, sino que sean lo suficiente diversos. Si por ejemplo en la base de datos únicamente hay hombres blancos, es imposible que la IA presente resultados plurales. Los sesgos de base se replican luego y hay que evitar que la IA ayude a perpetuar determinadas asimetrías.
¿La solución? Organizaciones como la que preside Constanza explican que es importante la diversidad de equipos. "Los datos son reflejo de los equipos". Si las grandes empresas quieren una IA más plural, además de fijarse en su tecnología hay que fijarse en las propias personas que la elaboran. De nuevo, las máquinas son fiel reflejo del hombre.
No es regular la IA, sino los posibles problemas de la IA. "Europa está a la delantera en regulación". Constanza repasa la importancia del RGPD y de la futura legislación sobre IA, pero también pone el foco sobre Latinoamérica, donde pese a no haber una regulación genérica sí hay protocolos sobre IA en países como México, Uruguay o Brasil. "La conversación va más allá. Cuando empecé se quedaba ahí, pero el debate ahora es mucho más maduro. Ya se habla por ejemplo de cuáles son las fuentes de energía de la IA y su impacto medioambiental".
La visión de Constanza es que los países no deben intentar regular la tecnología por sí misma, ya que ni siquiera sabemos todavía su impacto. En cambio, sí hay que pensar sobre los problemas que pueden estar asociados y ahí sí regularlos. Aquí entran desde poner límites al gasto energético hasta forzar a que se tengan en cuenta aspectos como la diversidad o la inclusividad para personas con discapacidad. "Todos estos aspectos no están peleados con la viabilidad económica".
"No sé si el aparato público está a la par de velocidad en cuestiones tan fundamentales. Con un ritmo tan acelerado no sé si el debate está a la altura, pero lo importante es que al menos exista y englobe a todos los sectores".
El resultado de una IA no es el mismo si ponemos a los humanos en el centro. Seth Dobrin, fundador de Qantm AI y ex Chief Data Officer de IBM, ha pasado de directivo de una gran multinacional a crear una pequeña consultora centrada en revisar los procesos de la IA. Para Seth hay que tener un "enfoque que ponga al humano en el centro". Y nos los explica de la siguiente manera: "la IA de un banco no ofrecerá el mismo resultado si únicamente sigue criterios económicos o valora a la persona como tal y si puede pagar la hipoteca".
Si queremos aspirar a que la IA no se nos vaya de las manos, el diseño de estas tiene que pensar desde un inicio en las posibles consecuencias. "Es muy fácil centrarse en el lado técnico y olvidarse de la estrategia", resume. Ahora mismo todos los esfuerzos van en producir IAs más potentes y precisas, pero los expertos consideran que hace falta más debate sobre si estos resultados, además de precisos también son suficiente diversos y beneficiosos para las personas.
"Hacer la IA más humanista no está reñida con un buen modelo de negocio. De hecho, aporta más valor. Al final, tus clientes como empresa son humanos", expone Seth. Si los ingenieros crean las IA teniendo presentes los posibles sesgos y resultados, será luego más fácil revisarlas en el futuro.
"No siempre tener más datos es mejor. A veces es mejor tener un conjunto de datos más pequeño pero bien revisado. Luego siempre se puede entrenar la IA para un caso de uso específico", responde Seth ante la pregunta de si existe hoy en día una sed insaciable por conseguir datos de todos lados.
Transparencia algorítmica. Los resultados de la IA nos fascinan, pero ahí se queda todo. Vemos una imagen bonita de DALL-E, pero no entendemos en qué está basada. Recibimos una traducción de Google, pero sigue habiendo dudas sobre hasta qué punto guardan nuestras conversaciones. "Hay que añadir a la conversación a la persona de quién estás pillando los datos", explica Seth.
"Hay una necesidad real de transparencia algorítmica", apuntan los distintos expertos consultados. "Hay que hacer entender a todos los participantes de la importancia de analizar el impacto. Si no hacemos un uso responsable de la IA, acabaremos rompiendo la tendencia exponencial de crecimiento e iremos hacia atrás".
"Afortunadamente hay modelos de lenguaje open source, se está mejorando la eficiencia energética y cada vez se habla más de la importancia de una IA responsable. Son brotes verdes", opina Seth, quien pese a que sí admite que gran parte es marketing, también hay un avance real que poco a poco tiene más fuerza.
"Tenemos que hablar". "La regulación es una necesidad, sobre todo en el ámbito de la salud. Me gusta el enfoque de la AI Act de Europa, donde se regulan los resultados y no la tecnología en sí misma. Tiene sentido, porque al final no se puede regular un lenguaje de programación. Mañana puede ser otro totalmente distinto", apunta Seth.
Además de Europa, otros países como Estados Unidos también han entendido la necesidad de regular la IA. El enfoque de las categorías y sus riesgos tiene bastantes defensores. Por ejemplo sobre el reconocimiento facial apuntan que su uso debería ser factible para ciertos momentos como el acceso a los aeropuertos, pero que un uso masivo de videovigilancia es más peligroso.
"Hay que hablar sobre IA y hay que hacerlo ya", resume Seth. "Hay que mirar cómo regular y cómo educar a las futuras generaciones. Si no lo aplicamos ya, la siguiente generación dentro de 10 años tendrá un problema".
Definir quién se hace responsable. Mariagrazia Squicciarini, directora de tecnología e innovación de la Organización para la Cooperación y el Desarrollo Económicos Trabajo (OCDE), reconoce que estamos lejos de una solución. "No es sencillo coordinar los esfuerzos en regular la inteligencia artificial. Afecta a todos los sectores y con muchos enfoques; salud, empleo, privacidad...".
Una ventaja es que "la mayoría de los problemas con la IA son los mismos en la mayoría de países". Es decir, los desafíos que tenga Europa con la IA puede ser similares a los que tenga EEUU o Latinoamérica. Pero esta similitud también es un desafío, en el sentido de que si una empresa quiere crear una IA y en determinado sitio tiene muchas trabas, se irá al país de al lado. En cómo conseguir que la IA siga evolucionando rápidamente está una de las preguntas a los que se enfrentan desde la OCDE.
"Estamos en un momento crítico. Necesitamos llegar a consensos. Hay que definir bien cosas cómo quién se hace responsable de una IA. ¿La compañía? ¿Un jefe de ética de la compañía? Sea quien sea, hay que saber a quién nos podemos dirigir para pedirle información y responsabilidad".
Y también definir cuál es la función de cada IA. Hassan Sawaf es CEO de aiXplain y ex director de inteligencia artificial de Facebook, Amazon Web Services y eBay. Con más de 25 años de experiencia en los departamentos de innovación de las grandes compañías tecnológicas, Hassan tiene bastante claro lo que se necesita: "entender a la IA y ser capaces de adaptarnos rápidamente".
"¿Qué significa que una IA es mejor? ¿Cómo podemos definir bien los benchmarks que definen que una IA es más potente?", se pregunta Hassan. La respuesta no la tiene clara, pero no es aquella IA que está entrenada en más parámetros.
"Necesitamos definir los problemas que queremos resolver. Cambiar los benchmarks para acercarnos al caso práctico", expone. Por ejemplo GPT-3. ¿Qué buscamos que nos diga la IA? No es solo enlazar frases inteligentes; no es solo aparentar que entiende la pregunta; no es hacerse pasar por una conciencia. Si queremos ser capaces de mejorar modelos como el de OpenAI no se necesitará solo entrenar más, sino empezar a definir qué es lo que vamos a pedirle. Estamos en un punto de casi fuerza bruta, pero los expertos piden que dejemos de maravillarnos con los resultados y empecemos a ser más críticos con estas herramientas.
Entender a las máquinas. "Hay que entender cómo piensan las máquinas. Qué necesitan y dónde tienen más problemas". Un ejemplo es el lenguaje. "El inglés no es el idioma más sencillo para una IA. Lógicamente no es la gramática, que es trivial para la IA. Pero tampoco consiste en lo bien estructurado que esté el idioma. Idiomas como el inglés o el chino son difíciles porque utilizan muchas metáforas. Muchos conceptos abstractos, casi coloridos o basándose en el contexto. Esta complejidad es la más difícil de entender para una máquina".
Conseguir que la IA no se nos vaya de las manos también es cuestión de que estas metáforas no sean sacadas de contexto. Las sutilezas de las interacciones humanas tendrán como resultado todo tipo de incoherencias y errores. Algunos de estos pueden tener repercusiones serias. La IA avanza rápido, pero si definimos bien cada parte del proceso podremos delimitar mucho mejor su impacto.
Imagen | GR Stocks
via Robótica e IA - Xataka https://ift.tt/SUBOMgr