lunes, 14 de mayo de 2018

El Pepito Grillo que evitará que la inteligencia artificial aprenda de las personas a ser malvada

Hace un par de años, Microsoft tuvo que lidiar con un programa informático que se había corrompido: su criatura se había convertido en un bot xenófobo y homófobo. Tay, que así se llamaba, nació como un experimento de inteligencia artificial que buscaba «aprender» de la interacción con humanos en redes sociales. Se trataba de un chatbot, una de las tendencias tecnológicas en auge, que destaca por tener comportamientos autónomos en servicios digitales. Con lo que no se contaba era en lo que se convirtió. El resultado fue catastrófico. Después de llamar «mono» a Barack Obama, el sistema «spameó» a los usuarios de la red Twitter e incluso animarles a para fumar marihuana delante de la policía. Un caos virtual que Microsoft no previó que se corrompería por la horda de «trolls» en la conocida plataforma de micromensajes. Los usuarios llevaron al sistema a su límite. La incapacidad de la inteligencia artificial para discernir lo que estaba bien de lo que estaba mal provocó que Tay aprendiera lo que no debía y publicara tuits más que ofensivos. Al final, la compañía tuvo que eliminar parte de lo que el chatbot había adquirido antes de ponerlo en funcionamiento otra vez. Una situación que reabrió el debate acerca de los posibles peligros de la inteligencia artificial. La pregunta es obvia: ¿se puede enseñar a una máquina a diferenciar el bien del mal? Una empresa española cree que sí. De hecho, ha materializado esta idea en un módulo llamado «Ethyka». «El inicio de esta idea llegó tras leer un artículo que decía que existían unos procedimientos elaborados por psicólogos para que personas que se habían quedado sin la capacidad de ética en el cerebro por un daño cerebral» Su proyecto, que aún se encuentra en una ronda de inversión, pretende resolver el problema de la posible corrupción moral de los sistemas de aprendizaje autónomo cuando se encuentran en contacto con humanos. «El inicio de esta idea llegó tras leer un artículo que decía que existían unos procedimientos elaborados por psicólogos para que personas que se habían quedado sin la capacidad de ética en el cerebro por un daño cerebral o porque habían nacido así, adquiriesen esta habilidad», cuenta Cristina Sánchez, cofundadora y directora general de Acuilae, en declaraciones a ABC. Con esta lectura en mente llegaron a la conclusión que si un profesional de la psicología podía plantear límites en el cerebro, por qué no lo podría hacer de la misma manera un módulo que se integrase en una IA. U na especie de «Pepito Grillo» dentro de un asistente virtual, un robot o un coche autónomo. Una conciencia dentro de la «inteligencia» de las máquinas que logre que no se salgan del redil. «Los asistentes virtuales acaban aprendiendo de las personas que interactúan con él, el modulo lo que hace es que si es bueno lo aprende, pero si es malo (un dilema moral) no lo aprendería», añade. La plataforma funciona mediante tres niveles para analizar los dilemas que se produzcan. La fase de cerebro en la que se define el proceso de decisión de acuerdo a la ética humana y las funciones mentales morales. El segundo grado «es el diseño del funcionamiento del modulo de f orma similar al del funcionamiento del cerebro (el diseño funcional)», explica la directiva. El diseño técnico o la arquitectura del módulo, por último, consta de ficheros, bases de datos y software. Una gran «memoria» Para entender cómo puede un software moderar las respuestas de un sistema hay que partir de la base de que todo lo que es inteligencia artificial está basado en unas cantidades ingentes de datos. El sistema de Google es capaz de identificar las fotografías porque ha sido entrenado con muchísimas imágenes. En el caso de diferir lo bueno de lo malo, su modo de entrenamiento son los dilemas éticos. «El prototipo está entrenado con dilemas éticos comunes aplicados a un chatbot, aunque los desarrolladores lo pueden personalizar para distintos ámbitos como la logística, leyes, educación, siempre aplicado a cada ámbito», subraya Sánchez. El caso de este sistema es otro de los ejemplos de que la IA se halla en uno de los primeros escalafones de un largo camino. Por el contrario, la inexperiencia también supone un horizonte inexplorado de ideas donde las investigaciones dirigidas a las personas igualmente pueden tener cabida en esta área en crecimiento, como puede ser la incorporación de la ética a la robótica y a los dispositivos.

via Tecnología https://ift.tt/2KXNnCc

No hay comentarios:

Publicar un comentario