Para los principales fabricantes de sistemas de vigilancia de Circuito Cerrado de Televisión (CCTV), la irrupción de la inteligencia artificial en el mundo de la seguridad ha supuesto toda una revolución. Y es que el poder dotar de inteligencia y autoaprendizaje a la red mundial de cámaras ha marcado un antes y un después en el sector y, por ende, en la sociedad.
En el entorno de la seguridad, la IA tiene múltiples aplicaciones: desde poder detectar comportamientos sospechosos o identificar criminales, hasta predecir posibles comportamientos delictivos. Pero, al final como siempre en estos casos, las expectativas han quedado muy lejos de la realidad.
Si bien vamos a ahondar en el aspecto negativo del asunto y en por qué no es una buena idea dejar nuestros sistemas de vigilancia en manos de algoritmos, debemos tener en cuenta que la irrupción de tecnologías como el deep learning y el machine learning ha ayudado al usuario a tomar decisiones eficaces de una forma mucho más rápida.
El reto de la IA en la seguridad
Hoy en día estamos más que acostumbrados a que las inteligencias artificiales formen parte de nuestras vidas. Bien sea para que nos recomienden series y películas afines a nuestros gustos o para ayudarnos en cosas más serias como los sistemas de conducción.
Sin embargo, cuando a esos algoritmos de IA les pedimos que sean los que protejan nuestros bienes o ayuden a la policía en la identificación y detención de un sospechoso, la cosa se complica. Según explican expertos del sector, los errores que estamos viendo ahora no dejan de ser los mismos que ya en su día predijera John McCarthy en el libro “Inteligencia Artificial” (1956).
Durante años se han concatenado ciclos de entusiasmo con decepciones al comprobar que los algoritmos no eran lo suficientemente inteligentes como para convertirse en expertos.
Además, en muchas ocasiones era inasumible el coste de hardware que los permitiera funcionar.
Unos cuantos años después parece que esos errores se han olvidado gracias al marketing de la nueva generación de IA. Y es que, esas siglas mágicas, prometen un 99% de precisión en sus tareas —siempre en unas condiciones idóneas que casi nunca se dan en la realidad—.
Y bajo el paraguas de ese porcentaje aparece el problema raíz de la IA y la seguridad, pues estamos dejando nuestra seguridad en manos de una solución que ya nos avisa que no va a funcionar de forma correcta en el 100%.
Fallos reveladores sobre el funcionamiento de la IA
En primer lugar, tenemos su fragilidad. Los sistemas de deep learning nos prometen soluciones robustas y de auto aprendizaje. Sin embargo, aunque en la mayoría de las situaciones un algoritmo deep learning es capaz de diferenciar perfectamente los elementos que está viendo, no siempre es así.
Además, tenemos los sesgos integrados y entre ellos el más preocupante: el sesgo racial de la IA. En algunas ciudades como San Francisco está prohibido el uso de sistemas de reconocimiento facial por este problema.
Un caso muy sonado fue el de Robert Julian-Borchak Williams, un ciudadano afroamericano que fue detenido porque la IA analizó un vídeo de un robo y lo identificó como sospechoso. Tras ser detenido, pasó un tiempo en el calabozo y fue sometido a varios interrogatorios hasta que alguien se dio cuenta de que la IA se había confundido. Desafortunadamente, el caso de Julian-Borchak Williams no es algo aislado; de hecho, ha habido varios incidentes similares con personas de raza negra.
Si le preguntamos a los fabricantes de sistemas de reconocimiento facial (esos que nos prometen una precisión muy cercana al 100%) si esos números también son los mismos en identificaciones a personas no caucásicas, la respuesta no sería tan concisa.
Por otro lado, el Ministerio de Defensa de Ucrania ha estado utilizando el software de reconocimiento facial Clearview AI desde marzo de 2022 con la intención de verificar crímenes de guerra. El sistema identifica a los muertos, tanto rusos como ucranianos. Sin embargo, este software ha sido el protagonista de varias polémicas en Reino Unido, donde la empresa israelí que lo fabrica ha sido multada por obtener y almacenar imágenes de los usuarios sin consentimiento.
A pesar de estas limitaciones y carencias, así como problemas de privacidad inherentes, está claro que la irrupción de la IA en el mundo de la seguridad es algo beneficioso, aún por pulir, pero beneficioso. De hecho, ha conseguido que los sistemas hayan dado un salto tecnológico a nivel cualitativo, pero aún estamos muy lejos de dejar que la IA realice procesos de forma automática sin estar supervisados por la inteligencia humana.