sábado, 8 de septiembre de 2018

Un grupo de robots autónomos con IA "desarrollaron prejuicios" al trabajar en equipo, según un nuevo estudio del MIT

Robots Ia

De acuerdo a una nueva investigación del MIT y la Universidad de Cardiff, algunos robots impulsados por inteligencia artificial serían capaces de "desarrollar prejuicios contra otros robots cuando están trabajando juntos". Aunque aquí hay que mencionar que esto dependería del contexto y la situación en concreto, este comportamiento sería muy parecido a lo que ocurre en los grupos de trabajo de los humanos.

Un sesgo en beneficio de su propio grupo de trabajo

Esta investigación consistió en el desarrollo de un simulador de trabajo en equipo, una especie de juego con dos grupos de robots autónomos, cada uno tenía el objetivo de donar objetos ya sea a otros robots de su propio equipo o a los del otro bando, esto basándose en la reputación de cada robot y las estrategias de donación.

A través de este experimento se buscaba medir el nivel de prejuicio contra los extraños. Mientras se avanzaba con este juego, y durante miles de simulaciones, la investigación mostró que los robots aprendían nuevas estrategias copiándose entre sí dentro de sus propios grupos, e incluso dentro de toda la población.

Los primeros resultados de la investigación mostraron que los robots copiaron estrategias que les dieron una mejor recompensa en el corto plazo, lo que indicaba que la alta capacidad cognitiva no era algo determinante para poder "desarrollar prejuicios".

Robots

Roger Whitaker, profesor de la Universidad de Cardiff y coautor del estudio, mencionó:

"Nuestras simulaciones muestran que el prejuicio es una fuerza poderosa de la naturaleza y, mediante la evolución, puede incentivarse fácilmente en poblaciones virtuales, en detrimento de una conectividad más amplia con los demás. La protección contra grupos perjudiciales puede llevar inadvertidamente a formar otros grupos igual de perjudiciales, lo que resulta en una población fracturada. Una vez con este prejuicio generalizado, es difícil revertirlo. Es factible que las máquinas autónomas, con la capacidad de identificarse con discriminación y copiando a otras, puedan ser en un futuro susceptibles a los fenómenos perjudiciales que vemos en la población humana".

Sin embargo no todo está perdido. Ya que dentro del mismo experimento se encontró que el prejuicio se puede reducir cuando hay una mayor cantidad de "subpoblaciones" dentro de los grupos de trabajo. Es decir, al tener una mayor variedad de robots no se generan alianzas perjudiciales, ya que se disminuye la condición de minoría y todos cooperan entre sí, reduciendo así la susceptibilidad al prejuicio.

Nuevamente, esto dependerá del contexto y la situación que se busque desarrollar, ya que se requerirían circunstancias en la que los robots autónomos tengan mayor disposición a interactuar fuera de su grupo.

En Xataka | Conozcan a 'Norman', la primera inteligencia artificial entrenada para "pensar" como un psicópata



via Magazine - robotica-e-ia https://ift.tt/2QdTAwz

No hay comentarios:

Publicar un comentario