sábado, 25 de julio de 2020

Facebook crea una simulación de su plataforma con bots para prevenir malos comportamientos

Con 2.600 millones de usuarios activos mensuales Facebook sigue siendo la reina de las redes sociales, y como tal, también es el objetivo de muchos ataques, timos y robos contra el propio usuario. No estamos hablando de herramientas digitales súper sofisticadas, sino del simple ataque de un usuario sobre otro, algo muy difícil de detectar con sistemas automáticos. Al fin y al cabo el comportamiento humano individualizado sigue siendo imprevisible, muy difícil de encajar en un patrón para inteligencia artificial. Fruto de su equipo de investigación, Facebook acaba de presentar WES o «Web-Enabled Simulation», un primer intento de conseguir simular un entorno complejo de red social pero usando bots. Con WW, el WES específico de Facebook el equipo de investigación toma la plataforma de Facebook sin interfaz y sin sus usuarios humanos, y la llenan de bots. Los bots pueden hacer lo mismo que los seres humanos en la red social, hacerse amigos entre ellos, mandarse mensajes o comentar el contenido de otros bots. Hasta aquí es exactamente lo mismo que tenemos en Facebook con millones de bots interactuando entre ellos, pero lo interesante viene cuando se «recompensa» a alguno de esos bots por comportarse inapropiadamente, ahí es cuando ocurre la «magia», y los científicos pueden ver qué pasa y con los datos que obtienen, predecir comportamientos inapropiados de usuarios reales. Obviamente todo este entorno está aislado del Facebook del usuario. Cuando hablamos de «recompensar» un bot, no es como entendemos dar un premio a un ser humano, sino que se le especifica un objetivo al bot que actúa como recompensa, y el robot busca la manera más eficiente de llegar a ese objetivo en millones de repeticiones. Es lo que se conoce como «deep learning», decirle al robot dónde tiene que llegar pero sin decirle el cómo. Usando estas metodologías, se encuentran nuevas formas de comportamiento inapropiado, replicando la velocidad, escala y realismo de la redes sociales, con escenarios altamente complejos, y así llegar a preverlos. Mark Harman, el científico investigador responsable de WES en Facebook, explicó en una analogía que lo que quieren crear es el equivalente del badén. El radar de velocidad pone la multa cuando ya se han infringido las reglas, eso es fácil de detectar y el resultado en Facebook es cancelar la cuenta del usuario que lo hace, pero los badenes te avisan para que reduzcas la velocidad antes de sobrepasarla, o lo que es lo mismo, previenen la infracción. El objetivo de Facebook es que este sistema funcione en cualquier red social y sea capaz de prevenir malos comportamientos antes de que ocurran. Por ejemplo, si un usuario de Facebook intenta comprar armas a través de la red social, bloquear ese comportamiento antes de que llegue a otros usuarios. Siguiendo con el espíritu de apertura de los centros de investigación de Facebook todo este entorno está disponible para cualquier investigador o científico que se quiera unir a la plataforma aportando sus datos, y mejorando así sus conclusiones. Y aunque WW es el entorno simulado de Facebook, WES se puede utilizar para reproducir cualquier red social. En las redes sociales de escala masiva, es de suponer que también hay usuarios que intentan infringir sus normas de uso. Estas investigaciones buscan prevenir esas infracciones antes de que ocurran, identificando el complejo proceso que supone el comportamiento humano.

via Tecnología https://ift.tt/2P0NWON

No hay comentarios:

Publicar un comentario