Una de las tareas más complicadas, agotadoras y dañinas psicológicamente es la de moderar sitios con el fin de identificar y retirar material relacionado con abuso sexual infantil (child sexual abuse material "CSAM"). Debido a su complejidad, este trabajo es realizado por humanos, pero ahora Google busca contribuir con esa labor usando inteligencia artificial.
Google está lanzando una nueva herramienta de software gratuito, la cual se basa en su plataforma de inteligencia artificial y está dirigida a aquellas compañías que se dedican a la tarea de moderación de contenido CSAM, ya sea en uno o varios sitios de internet.
Ha logrado identificar hasta un 700% más de contenido CSAM
A día de hoy, la gran mayoría de las soluciones tecnológicas en esta área consisten en la identificación de imágenes y vídeo utilizando un catálogo de contenido previamente marcado. 'PhotoDNA' es, por ejemplo, una herramienta, conocida como 'crawler', desarrollada por Microsoft e implementada por compañías como Facebook y Twitter.
La ventaja de este 'crawler' es que identifica el material de forma efectiva y evita que sea compartido, lo que frena su difusión. Sin embargo, este software sólo funciona de forma efectiva con material marcado como ilegal, ya que no tiene la capacidad de identificar nuevo contenido. Aquí es donde entran los moderadores humanos, quienes se tienen que hacer cargo de nutrir la base se datos viendo y revisando imágenes y vídeos para otorgarles una clasificación.
Según Google, su nueva herramienta hace uso de su sistema de identificación visual 'machine vision' usando el material previamente clasificado, para que así pueda identificar imágenes y vídeos CSAM de una forma más rápida. Una vez que el sistema identifica material de este tipo, envía una alerta al moderador para priorizar su revisión, ya que el humano seguirá siendo quien se encargue de marcarlo como ilegal.
Esto, en teoría, permitiría una revisión mucho más rápida. De acuerdo a las primeras pruebas de Google, su herramienta de inteligencia artificial ayudó a un moderador a "tomar medidas en un 700% más de contenido de CSAM durante el mismo período de tiempo".
La Internet Watch Foundation (IWF), una de las organizaciones más grandes dedicadas a detener la propagación de CSAM en línea, hace uso de un gran equipo de moderadores humanos que se dedican a identificar imágenes y vídeos con contenido sexual relacionado con menores de edad, el cual opera en más de una docena de países. Además, trabajan en colaboración con la policía de varias regiones del mundo para identificar y cerrar sitios web donde se genera y comparte este tipo de contenido.
Pues IWF será una de las primeras compañías en probar el nuevo software de Google, aunque se muestran un tanto incrédulos ante "las afirmaciones fantásticas de la IA", ya que antes deberán ver cómo se adapta a su equipo de trabajo. Fred Langford, director general adjunto de IWF, mencionó que han intentado con varias herramientas que prometen la automatización de esta tarea, pero a día de hoy ninguna ha resultado ser efectiva, así que en caso de que se cumpla lo que promete Google, "este clasificador sería un poco como el 'Santo Grial' de nuestro campo".
Más información | Google
via Magazine - robotica-e-ia https://ift.tt/2Q7ztAe
No hay comentarios:
Publicar un comentario