Portada :: Conocimiento Libre
Aumentar tamaño del texto Disminuir tamaño del texto Partir el texto en columnas Ver como pdf 18-11-2019

Las herramientas de deteccin preventiva de individuos poco frecuentes como terroristas que se hacen pasar por inmigrantes son imprecisas
Los lmites estadsticos de la vigilancia masiva no sirven para detectar individuos, sino para criminalizar colectivos

Javier Snchez Monedero
El Diario


Despus de los atentados del 11-S de 2001, Estados Unidos inaugur la senda del espionaje masivo de la ciudadana en busca de potenciales terroristas. La premisa, mantenida e impulsada como mantra gracias al avance del big data, era y es: cuantos ms datos tengamos en nmero y variedad ms probabilidades tendremos de detener a los terroristas antes de que acten. Desde entonces, en el debate respecto a herramientas de vigilancia y estrategias preventivas de seguridad se introdujo una salvaguarda narrativa en forma de dilema inevitable: seguridad o libertad. Y ese dilema ha servido para calmar las resistencias a una agenda poltica que normaliza el controla y la vigilancia, adems de criminalizar a grupos sociales.

La oposicin a estos despliegues se plantea a menudo desde los derechos sociales y humanos, pero rara vez incorporamos al debate pblico un anlisis estadstico que nos demuestra que es imposible que la mayora de estas propuestas funcionen para el que se supone que es su propsito. Es decir, no hay ningn dilema seguridad-libertad que resolver.

Desde hace aos, la Unin Europea cuenta con varios sistemas tecnolgicos para el control de personas refugiadas y migrantes mientras los estados miembro y la propia UE no paran de financiar o implementar planes piloto de vigilancia de sus ciudadanos. Por ejemplo, Gales puso en marcha en 2017 un sistema de reconocimiento facial para evitar el acceso a potenciales criminales a eventos deportivos.

El objetivo era detectar personas que pudieran suponer un peligro entre las asistentes a estos eventos. Sin embargo, cuando el sistema se despleg en varios eventos deportivos, como la final de la Champions League, su rendimiento fue mucho menor que en las pruebas de laboratorio: un 92% de las 2,297 personas detectadas como criminales, y a las que se les impidi acceder al espacio, no tenan antecedentes. El problema de los falsos positivos con el reconocimiento facial tambin dio que hablar en EEUU cuando el sistema reconocimiento de Amazon identific a 28 congresistas como delincuentes.

En las mismas fechas, un equipo de investigacin de la Universidad de Granada (UGR) presentaba un detector de mentiras basado en la monitorizacin de la temperatura de la nariz. Entre los ejemplos de aplicacin los inventores proponan su uso en campos de refugiados para saber cul es el objetivo real de las personas que tratan de cruzar las fronteras entre pases. El artculo asegura alcanzar una tasa de deteccin de mentirosos del 85%.

Obviando la unanimidad cientfica en que no existe ninguna base terica o experimental para pensar que sera posible construir un detector de mentiras y que tampoco podemos disear un experimento slido de validacin (todos los trabajos que proponen detectores de mentiras estudian su rendimiento con personas que interpretan un papel), estas noticias son un ejemplo perfecto del mencionado falso dilema. Bajo este, se reducen las resistencias a someter a un grupo social a una prueba claramente criminalizadora con la promesa de detectar terroristas de forma eficaz y avalada por instituciones acadmicas.

Pero incluso en el caso de que estos detectores de mentiras funcionasen y diramos por buenas sus pruebas de laboratorio, as como la hiptesis de que en los campos de refugiados se esconden terroristas, qu pasara si pudiramos demostrar que es altamente improbable, por no decir imposible, que muchas de estas propuestas funcionen? La estadstica nos da herramientas para ello.

Volviendo al detector basado en el Efecto Pinocho, tiene sentido la propuesta del investigador para detectar personas que se hagan pasar por refugiadas? Para esto necesitamos primero entender los resultados de laboratorio y despus contextualizarlos en el problema real.

El experimento

Antes de comenzar, es importante sealar que el hecho de que una persona mienta es un evento, mientras que el hecho de que el detector diga que miente es otro evento separado. El experimento de laboratorio, con un grupo de estudiantes que interpretaban unos roles, arroj unos resultados de 85% de deteccin de mentirosos y 75% de deteccin de personas que dicen la verdad. Esto significa que el 15% de las personas que mienten no son detectadas y que el 25% de las que dicen la verdad son clasificadas como mentirosas. A simple vista parecen unos resultados prometedores, pero sera interesante saber si en la prctica real los resultados de rendimiento se mantendran.

La estadstica nos da herramientas que nos sirven para contextualizar el comportamiento de una prueba como el detector de mentiras teniendo en cuenta cmo de frecuente es el evento que queremos detectar. Por ejemplo, si tenemos 1.000 personas de las cuales 100 mienten, qu har nuestro detector de mentiras? Si hacemos las cuentas, 85 de las personas mentirosas sern detectadas y 15 no, y de las 900 personas honestas el detector dir que 675 dijeron la verdad y que 225 mentan. En este punto, cabe destacar que el detector habr clasificado 310 personas (85 + 225) como mentirosas, y que mirando slo el detector de mentiras no podemos saber nada ms, de modo que habra que investigar a estas personas para encontrar a las que de verdad mienten, que se espera que sean un 27% de todas las clasificadas como mentirosas. Formalmente a esta correccin sobre el rendimiento se le conoce como valor predictivo positivo o probabilidad posterior y es imprescindible para valorar utilizar una prueba en un contexto real.

Efecto Pinocho

Podemos repetir este anlisis para saber si el detector de mentiras de la Universidad de Granada podra encontrar terroristas hacindose pasar por refugiados. Para ello utilizaremos los datos del think tank de extrema derecha Heritage, que asegura que 44 demandantes de asilo, de entre 4 millones, estuvieron relacionados con algn evento de terrorismo en Europa entre 2014 y 2017, esto es el 0.0001% del total. Repitiendo los clculos anteriores, 978.886 personas seran clasificadas como mentirosas, entre las cuales estaran 36 terroristas y el resto seran personas inocentes. Es decir, habra que investigar a casi 1 milln de personas en extrema vulnerabilidad para encontrar a esos 36 terroristas. Si calculamos el valor predictivo positivo este nos da un 0,0037%, una cifra que impresiona menos que el 85% de precisin anunciada por la UGR.

Es importante destacar que en nuestro anlisis hemos hecho una serie de asunciones que representan el mejor de los casos para la propuesta de la UGR: los detectores de mentiras existen, los experimentos de laboratorio se parecen al entorno real de pruebas y por tanto el rendimiento se mantiene, hemos sobreestimado la cifra de refugiados implicados en terrorismo y hemos dado por hecho que los terroristas no adoptaran ninguna medida para evitar ser detectados.

Despus de nuestro anlisis queda claro que la propuesta es inviable, no slo para la bsqueda de terroristas sino para la bsqueda de muchos otros eventos, ya que para alcanzar un valor predictivo positivo de ms del 50% el evento que buscamos tendra que cumplirse en al menos el 25% de la poblacin. Sin embargo, cualquiera que haya ledo la nota de prensa de la UGR habr concluido que la entidad propone, con el aval de la (pseudo)ciencia, que hacer pasar por una prueba criminalizadora a los refugiados es una buena idea.

La historia de los detectores de mentiras est plagada de casos fallidos lo cual no ha impedido que, recurrentemente, pases de la UE o la propia Comisin Europea financien programas piloto, de los que, casualidad, casi nunca encontramos informacin sobre los resultados prcticos. Esto ha sucedido con la implantacin de AVATAR en EEUU y Hungra para entrevistar a migrantes, el proyecto de la Universidad de Bradford y QinetiQ en 2011 para buscar defraudadores en las ayudas sociales, y ms recientemente con iBorderCtrl, que, financiado con 4,4 millones de euros por la UE promete agilizar el paso fronterizo sometiendo a personas sin un visado a un detector de mentiras supuestamente basado en inteligencia artificial.

Ahora que sabemos que estos sistemas no son fiables, y demostrado estadsticamente que no pueden funcionar en la bsqueda de eventos poco frecuentes, cabe preguntarnos qu lgicas persigue la UE con estos pilotos: responden a una creciente criminalizacin de las migraciones? Son una herramienta tecnoburocrtica que pretende deshacerse de migrantes bajo el supuesto aval de objetividad que otorga la ciencia? Tienen que ver con una industria de la seguridad parasitaria de Bruselas? Por lo pronto, European Dynamics, la empresa detrs de iBorderCtrl y muchos otros proyectos financiados por la UE, sigue sin publicar las memorias completas de los proyectos, incluyendo los documentos del comit asesor de tica, y ya tiene en marcha otro proyecto europeo que promete detectar comportamientos de riesgo en migrantes que cruzan las fronteras. Sera interesante saber por qu la Comisin Europea ha calificado como caso de xito el detector de iBorderCtrl cuando sabemos que se basa en pseudociencia y sera muy difcil que aportase alguna utilidad incluso con todas las hiptesis en su favor. Sera oportuno analizar por qu hay consultoras dedicadas en exclusiva a escribir proyectos de investigacin y tambin sera interesante seguir el rastro del dinero, pero eso sera otro tipo de artculo.

Fuente: https://www.eldiario.es/tecnologia/limites-estadisticos-vigilancia-masiva_0_963804507.html



Envía esta noticia
Compartir esta noticia: delicious  digg  meneame twitter