ESTÁN LLEVANDO A CABO UN PROYECTO PILOTO
En China trabajan en inteligencia artificial para predecir atentados
Toda ayuda es poca contra la violencia, incluso la de las máquinas: algunos investigadores trabajan en fórmulas para aplicar la inteligencia artificial al comportamiento predictivo.
Publicidad
Atentados como el del pasado jueves en Barcelona nos dejan una cosa clara: en España, por lo que se sabe, los Cuerpos y Fuerzas de Seguridad del Estado hacen una muy buena labor de prevención de posible atentados.
Porque el atentado de Barcelona no se pudo evitar, pero sí se frustraron buena parte de los planes de los terroristas. Pero hay otros ataques que, por fortuna, sí se han podido frustrar: en los últimos diez años España ha detenido a más de 700 sospechosos de pertenecer a cédulas yihadistas, con lo que la labor preventiva, 'entrenada' gracias a las décadas de lucha contra ETA, muchas veces provoca que no haga falta actuar poco antes de un trágico suceso.
Y esa es la lucha que a día de hoy tienen muchos países: la de no tener que evitar atentados, sino llegar mucho antes y detener a sus futuros responsables cuando aún se están radicalizando y ni siquiera han tomado la decisión de llevar a cabo un suceso de este calibre.
Si el sospechoso en cuestión está fichado, la labor es más o menos lineal: vigilar continuamente su actividad y estar atentos a cada paso que dé. Pero, ¿qué pasa si el individuo en cuestión nunca ha sido fichado y no aparece en el radar de los cuerpos policiales? ¿De qué manera puede predecirse la posibilidad de un asesinato o un atentado?
Así es el experimento de China
En esa cuestión anda China ahora mismo, igual que otros países menos lejanos. Su proyecto piloto gira en torno a las miles de cámaras de videovigilancia callejera que hay instaladas en sus grandes ciudades y en su capacidad para cotejar datos en tiempo real.
Las cámaras tienen dos focos principales de atención: por un lado, las zonas que habitualmente suelen contar con grandes aglomeraciones de personas; por otro, otros sitios como tiendas de armas, lugares sospechosos de reunión para terroristas o cualquier otro lugar al que pudiese acudir un potencial terrorista, según el criterio del Gobierno chino.
Las cámaras, basadas en la identificación de rasgos faciales y su reconocimiento, intentan crear perfiles, analizarlos, cotejarlos y, partiendo de toda la información almacenada, anticiparse a posibles problemas que pueda haber en el futuro.
Un ejemplo sencillo: si la Policía china observa a un individuo que suele acudir en repetidas ocasiones a una zona con mucha gente, y en otras a tiendas de armas o sitios de reunión de posibles terroristas, la inteligencia artificial determinará que esa persona podría estar interesada en llevar a cabo un acto terrorista o cualquier tipo de incidente homicida.
Al final, la tecnología parte de la misma teoría en la que se basan el 'big data' y la inteligencia artificial: recopilar muchos datos, cruzarlos, interpretarlos y, con todo ello, saber anticiparse y predecir futuras acciones. Habrá que ver cómo evoluciona el experimento y, sobre todo, de qué manera se intenta encajar con la no vulneración de los derechos de los ciudadanos chinos.
Publicidad