"Con la inteligencia artificial estamos invocando al demonio" no parece la típica frase de un emprendedor de Silicon Valley, desde luego. Si cerramos los ojos e intentamos visualizar a su autor, quizá nos venga a la mente la imagen de un loco barbudo aislado del mundo en su cabaña, a lo Unabomber. Y sin embargo, fue pronunciada en una ponencia durante el Centennial Symposium 2014 del Departamento de Astronáutica y Aeronáutica del MIT por uno de los enfants terribles de la industria tecnológica: el fundador de SpaceX y Tesla Motors, el sudafricano Elon Musk.
En la misma charla, Musk calificó a la IA como nuestra "mayor amenaza existencial" (el año pasado todavía seguía calificando así a la IA, en una reunión con gobernadores estadounidenses) y señaló que lo más probable era que en los siguientes 5 años ocurriese "algo realmente peligroso" protagonizado por una IA. Esperemos que las dotes de predicción de Musk estuvieran entonces bajo mínimos, porque estaba hablando del año que viene.
Quizá la IA no nos mate, pero sí nos domesticará
El pasado viernes Recode publicaba una extensa entrevista con Musk, y la entrevistadora destacó una frase de un encuentro anterior entre ambos, de 2016: "Algo que dijiste y que realmente me impactó fue que la IA no iba a matarnos, sino a tratarnos como a gatos caseros". Musk aprovecha para explicar la sorprendente comparación: "Como AI será, probablemente, mucho más inteligente que los humanos, la relación entre las diferentes inteligencias probablemente sea similar a la existente entre una persona y un gato".
Puede parecer un cambio en su retórica, más propia en otras ocasiones de un miembro de la resistencia contra Skynet, pero Musk no dice eso porque esté feliz ante la perspectiva de llevar un collar con cascabel, e insiste en no bajar la guardia: "Creo que debemos ser muy cuidadosos con el avance de la IA".
Las amistades peligrosas entre poder (político o empresarial) y la inteligencia artificial
En la entrevista, Musk se muestra especialmente interesado en dos metas a corto plazo: que los gobiernos tomen conciencia de la importancia de este asunto y lo regulen, y que ninguna empresa privada acumule demasiado poder a la hora de influir sobre el futuro del desarrollo de la inteligencia artificial.
Según el fundador de Tesla, el primer paso debería ser que un comité del gobierno "pase uno o dos años recopilando información sobre la IA u otras tecnologías que pueden ser peligrosas... pero especialmente la IA. Y luego, en base a la opinión que se haya formado, genere una serie de reglas, tras consultar con la industria, que ofrezcan la mayor probabilidad de un advenimiento seguro de la IA".
"Hay una concentración de fuerte de poder en el campo de la IA, especialmente en Google/DeepMind. Y tengo un gran aprecio por Larry Page y Demis Hassabis, pero creo que hay que valorar una supervisión independiente". Y recuerda que él mismo impulsó en 2015 la creación de la fundación OpenAI, "para reducir la probabilidad de que el poder sobre la IA se monopolice".
Como vemos, Musk está preocupado por todo lo que gira en torno a la relación entre poder e IA. Ya en abril de este año, tras el estreno del documental 'Do you trust this computer?' ("¿Confías en este computador?") fue muy comentada una de las reflexiones que realizaba en el mismo: "El futuro menos terrorífico que se me ocurre es uno en el que al menos hayamos democratizado la inteligencia artificial, porque si una gran compañía o un pequeño grupo de personas consiguen desarrollar una superinteligencia digital divina, podrían dominar el mundo".
Imagen | OnInnovation
via Magazine - robotica-e-ia https://ift.tt/2Qv3Sbr
No hay comentarios:
Publicar un comentario