Ilumina la oscuridad
Edición del 23 / 11 / 2024
                   
02/10/2018 07:27 hs

Estas cámaras de seguridad basadas en machine learning quieren evitar los tiroteos masivos en EE.UU.

- 02/10/2018 07:27 hs
COMPARTIR EN:                                

Los sistemas de videovigilancia quieren ir más allá del reconocimiento facial

Una empresa quiere aprovechar esta tecnología para reconocer armas y potenciales amenazas por ejemplo en centros educativos.

Esa empresa es Athena Security, una startup que ha puesto en marcha un sistema de aprendizaje automático (machine learning) apoyado por cámaras de videovigilancia y la potencia de las nuevas gráficas NVDIA GeForce RTX 2080 para detectar esas amenazas y proteger la seguridad de los alumnos.

Aprendizaje máquina como ingrediente clave

Según el Gun Violence Archive, en 2017 se produjeron 346 de estos ataques en Estados Unidos. La preocupación de los padres en este aspecto se ha triplicado desde 2013 según un estudio de PDK Poll, lo que ha provocado un especial interés por medidas que ayuden a prevenir y evitar este tipo de sucesos.

Es ahí donde entra la tecnología de reconocimiento visual de Athena Security. Cracias a la implementación de nuevos algoritmos de aprendizaje automático y el uso de potentes procesadores gráficos es posible ofrecer una precisión en el reconocimiento que nunca antes se había conseguido según sus responsables.

Este sistema es capaz de ofrecer más precisión a la hora de detectar amenazas de lo que lo harían APIs más genéricas como las del sistema Rekognition de Amazon, por ejemplo, pero no es perfecto: si hay una falsa alarma, la notificación podrá ser descartada por los gestores del sistema si ellos comprueban que efectivamente la detección corresponde a un falso positivo. Eso que permitirá además que el sistema vaya mejorando su precisión.

La privacidad (una vez más) a debate

El sistema se centra en la detección de armas de fuego —aunque próximamente permitirán reconocer también armas blancas como cuchillos—, y hace uso de las imágenes para detectar "movimientos peligrosos" que impliquen potenciales amenazas. El sistema se centra en esos objetos y no recolecta datos faciales por ejemplo, y según sus creadores uno de los pilares del sistema es la protección de la privacidad de los usuarios.

Este sistema ha comenzado ya a ser utilizado en algún centro educativo, algo que se suma a medidas como los detectores de metales e incluso nuevos desarrollos que estudian los perfiles en redes sociales de los alumnos para detectar potenciales amenazas.

Eso, como destacaban en The Conversation, puede acabar siendo contraproducente: ese 'target hardening', reforzar la seguridad de una instalación, acaba convirtiendo a los alumnos no en aprendices, sino en potenciales atacantes. Eso, unido a esa sensación de vigilancia continua, puede acabar contaminando el ambiente educativo de esos centros.

ÚLTIMAS NOTICIAS


NOMBRE
EMAIL
Random Number
PÁGINA   1   DE   0  -   TOTAL : 0

MÁS VISTAS


WhatsApp 358 481 54 54
Tel: +54 358 4638255 (Rotativo)
Constitución 399, CP5800 - Río Cuarto, Córdoba, Argentina
PROGRAMACIÓN AM
CONTRATAR PUBLICIDAD AM
WhatsApp 358 482 80 13
Tel: +54 358 4638255 (Rotativo)
Constitución 399, CP5800 - Río Cuarto, Córdoba, Argentina
PROGRAMACIÓN FM
CONTRATAR PUBLICIDAD FM
Copyright 2024 - LV16 Multimedios - Aviso Legal