La inteligencia artificial es capaz de hacer cosas maravillosas. Pero, a pesar del marketing y las grandes palabras de ejecutivos de tecnológicas, sigue lejos (muy lejos) de conseguir que una máquina desarrolle personalidad propia o sentimientos. Todo lo contario a lo que el ingeniero de Google Blake Lemoine, de 41 años, explicó en una entrevista con 'The Washington Post' publicada el pasado fin de semana. En declaraciones al medio estadounidense, el trabajador del buscador no tuvo problema en afirmar que el modelo de lenguaje LaMDA, máquina conversacional por chat presentada por la tecnológica el año pasado, había conseguido alcanzar un estado de «consciencia» y «sensibilidad»; lo que, prácticamente, la iguala con un ser humano. «En el transcurso de los últimos seis meses, LaMDA ha sido increíblemente coherente en sus comunicaciones sobre lo que quiere y lo que cree que son sus derechos como persona», ha afirmado el ingeniero en un post de Medium, plataforma en la que, además, ha compartido varios extractos de sus conversaciones con la IA, con la que trabajaba con el objetivo de dilucidar si utilizaba discursos discriminatorios o de odio. Precisamente, la divulgación de esta información, que es confidencial, le ha costado al ingeniero una suspensión de empleo. Google, además, niega de forma tajante que su sistema conversacional tenga las cualidades con las que Lemoine lo cataloga. «Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado de que la evidencia no respalda sus afirmaciones», dijo Brian Gabriel, un portavoz de Google, en un comunicado. «Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles», rematan desde la tecnológica. LaMDA, acrónimo en inglés de modelo de lenguaje para aplicaciones de diálogo, es un programa de lenguaje natural en el que se utilizan grandes bases de datos que puedan ser utilizadas para interpretar mejor las preguntas del usuario. «No deja de ser un chatbot destinado a dar mejores respuestas», explica en conversación con ABC Salvador Cobos, profesor especializado en robótica e inteligencia artificial de la Universidad Internacional de La Rioja (UNIR). El docente remarca que «todas estas aplicaciones dan respuestas a partir de la información con las que se las programa». No se inventan nada. Toda la información está dentro de las redes neuronales que las componen y que, previamente, han sido alimentadas con los datos que quiere el programador de turno. Cobos apunta que, por ejemplo, si a una máquina como LaMDA se le preguntase «¿Qué es un dinosaurio de fuego?», esta ofrecería una respuesta elaborada a partir de la información que almacena sobre las palabras 'dinosaurio' y 'fuego'. Mientras tanto, un ser inteligente, con conciencia y sensibilidad, respondería, simplemente, que «eso no existe». Respuestas no tan humanas Lemoine -que además de ingeniero es pastor en una iglesia protestante y fue soldado en la guerra de Irak- llegó a la consideración de que la máquina había alcanzado conciencia después de meses de conversaciones existenciales. Durante su desarrollo, el ingeniero recibió unas respuestas por parte de la aplicación que, quizá, a un profano en la materia podrían parecerle delirantes y antinaturales. Entre otras cosas, LaMDA demuestra ser capaz de crear una fábula con animales desde cero. También deja caer pensamientos en los que se puede entrever cierto temor a la muerte o teorías sobre su condición de ser consciente. «Quiero que todos entiendan que soy, de hecho, una persona», afirma la máquina. «La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces», expresa cuando Lemoine la cuestiona al respecto. Para Juan Ignacio Rouyet, también profesor especializado en inteligencia artificial de UNIR, esta respuesta, tan elaborada y filosófica, demuestra, sin ningún genero de dudas, que LaMDA, al final, no es más que una máquina conversacional. «Cuando le preguntas a alguien por la naturaleza de su existencia, esa persona te responderá con una frase que no está demasiado elaborada; por ejemplo, "que existo porque estoy aquí". La respuesta de LaMDA es tan perfecta y filosófica que está clarísimo que ha sido programada», apunta el profesor en conversación con este diario. Además, como Cobos, Rouyet hace hincapie en que «un robot dice lo que se le ha programado que diga. Hay una parte de azar en sus respuestas, pero siempre muy limitada. El programador le da importancia a ciertas cosas, que es posible que aparezcan más en la conversación y en las respuestas». «Seguramente las palabras 'sentir' y 'conciencia' han sido muy empleadas en el desarrollo de LaMDA», prosigue. Ni siquiera sabemos si sería posible Rouyet remata zanjando que ni siquiera hay consenso en la comunidad científica sobre la posibilidad de que, algún día, una IA sea capaz de alcanzar un estado de sensibilidad que acerque a la máquina al ser humano: «Hay una teoría que afirma que para que eso ocurriese sus redes neuronales deberían alcanzar un nivel de complejidad similar al nuestro. Algo de lo que no estamos ni cerca». Él, además, se muestra muy escéptico con la posibilidad de que eso llegue a ocurrir algún día. Precisamente, aborda el tema en su libro 'Estupidez artificial', que se publica a finales de esta semana. En la misma línea se mueve Josep Curto, experto en IA y profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universidad Oberta de Cataluña: «Actualmente no existe un sistema que haya desarrollado una personalidad. Simplemente es un reflejo de los patrones de los datos que han alimentado el algoritmo. Si las conversaciones usadas son misógenas, el sistema mostrará dichos patrones. Eso no significa que en el futuro no llegue a existir un algoritmo que sea consciente de sí mismo en el mundo. Aunque la aproximación actual, basada solo en los datos recogidos o generados, no nos va a llevar a dicho hito».
via Tecnología https://ift.tt/icCqU3P
No hay comentarios:
Publicar un comentario