viernes, 5 de octubre de 2018

Estas cámaras de seguridad basadas en machine learning quieren evitar los tiroteos masivos en EE.UU.

Estas cámaras de seguridad basadas en machine learning quieren evitar los tiroteos masivos en EE.UU.

Los sistemas de videovigilancia quieren ir más allá del reconocimiento facial: una empresa quiere aprovechar esta tecnología para reconocer armas y potenciales amenazas por ejemplo en centros educativos.

Esa empresa es Athena Security, una startup que ha puesto en marcha un sistema de aprendizaje automático (machine learning) apoyado por cámaras de videovigilancia y la potencia de las nuevas gráficas NVDIA GeForce RTX 2080 para detectar esas amenazas y proteger la seguridad de los alumnos.

Aprendizaje máquina como ingrediente clave

Según el Gun Violence Archive, en 2017 se produjeron 346 de estos ataques en Estados Unidos. La preocupación de los padres en este aspecto se ha triplicado desde 2013 según un estudio de PDK Poll, lo que ha provocado un especial interés por medidas que ayuden a prevenir y evitar este tipo de sucesos.

Athena2

Es ahí donde entra la tecnología de reconocimiento visual de Athena Security. Cracias a la implementación de nuevos algoritmos de aprendizaje automático y el uso de potentes procesadores gráficos es posible ofrecer una precisión en el reconocimiento que nunca antes se había conseguido según sus responsables.

Este sistema es capaz de ofrecer más precisión a la hora de detectar amenazas de lo que lo harían APIs más genéricas como las del sistema Rekognition de Amazon, por ejemplo, pero no es perfecto: si hay una falsa alarma, la notificación podrá ser descartada por los gestores del sistema si ellos comprueban que efectivamente la detección corresponde a un falso positivo. Eso que permitirá además que el sistema vaya mejorando su precisión.

La privacidad (una vez más) a debate

El sistema se centra en la detección de armas de fuego —aunque próximamente permitirán reconocer también armas blancas como cuchillos—, y hace uso de las imágenes para detectar "movimientos peligrosos" que impliquen potenciales amenazas. El sistema se centra en esos objetos y no recolecta datos faciales por ejemplo, y según sus creadores uno de los pilares del sistema es la protección de la privacidad de los usuarios.

Metal1

Este sistema ha comenzado ya a ser utilizado en algún centro educativo, algo que se suma a medidas como los detectores de metales e incluso nuevos desarrollos que estudian los perfiles en redes sociales de los alumnos para detectar potenciales amenazas.

Eso, como destacaban en The Conversation, puede acabar siendo contraproducente: ese 'target hardening', reforzar la seguridad de una instalación, acaba convirtiendo a los alumnos no en aprendices, sino en potenciales atacantes. Eso, unido a esa sensación de vigilancia continua, puede acabar contaminando el ambiente educativo de esos centros.

Vía | ZDNet



via Magazine - robotica-e-ia https://ift.tt/2y2TeAK

No hay comentarios:

Publicar un comentario