Revolución en el trabajo policial
El patrullaje por predicción ha reducido en un 13% la tasa de criminalidad en Los Ángeles
Gracias a la tecnología, la policía tiene ante sí un brillante futuro, y no sólo porque pueda buscar sospechosos en Google. Hay otras dos tendencias, menos visibles, que tratan de hacer todavía más fácil y efectivo su trabajo, pero a costa de suscitar unos espinosos interrogantes a propósito de la privacidad y las libertades civiles.
La primera es que la actividad de la policía, como tantas otras en esta época de “big data”, está siendo repensada sobre la expectativa de que un mayor y más profundo análisis de información acerca de delitos del pasado, combinado con sofisticados algoritmos, puede predecir los del futuro. Esta es una práctica conocida como “patrullaje por predicción” y, aunque sólo tiene unos pocos años de antigüedad, muchos profesionales la ven como toda una revolución del trabajo policial. La policía de Estados Unidos en particular se muestra entusiasmada con ella; los europeos, con los británicos a la cabeza, la van adoptando con más lentitud.
Es el caso del Departamento de Policía de Los Angeles –el famoso LAPD popularizado por las películas de Hollywood—que está utilizando un software llamado PredPol. Este software empieza por analizar años de estadísticas delictivas previamente publicadas. Luego divide el mapa de patrulla en zonas (aproximadamente 45 metros cuadrados cada una) y calcula la distribución y frecuencia en ellas de anteriores delitos. Finalmente les dice a los agentes qué delitos es probable que se produzcan, y dónde y cuándo van a tener lugar, para que se dediquen a patrullar esas zonas más intensamente.
Lo que atrae de la idea del “patrullaje por predicción” es que es mucho mejor prevenir un delito antes de que se produzca que llegar después y ponerse a investigarlo. De manera que, aunque los agentes puedan no pillar a un delincuente en acción, su presencia en el lugar adecuado y en el momento oportuno ayude al menos a disuadirle que actúe.
Esa lógica parece tener solidez. Así, en Los Angeles, cinco divisiones de LAPD que utilizan ese software para patrullar un territorio habitado por cerca de 1,3 millones de personas han visto disminuir la tasa de criminalidad en un 13%. La ciudad de Santa Cruz, donde también se utiliza el PredPol, contempló un descenso de sus robos en cerca del 30%. Pueden encontrarse estadísticas semejantemente estimulantes en los departamentos de policía de todo el país y los responsables del proyecto en UCLA viajan por el mundo para animar a otros departamentos a adoptar esa práctica.
Otras tendencias suscitan unos espinosos interrogantes a propósito de la privacidad y las libertades civiles
Si semejante “predicción” suena familiar es porque su metodología fue inspirada por compañías de internet. En un artículo publicado en la revista The Policy Chief en 2009 un oficial de alto rango de LAPD elogiaba la capacidad de Amazon para “comprender la singularidad de los grupos en su base de clientes y distinguir sus pautas de compra”, lo que permite a la compañía “no solo anticipar sino también promover o configurar de otro modo su comportamiento futuro”. Así, lo mismo que los algoritmos de Amazon hacen posible predecir qué libros son los que probablemente vayas a adquirir en tu siguiente compra, unos algoritmos similares pueden decirle a la policía con qué frecuencia, y dónde y cuándo, ciertos delitos pueden volver a tener lugar.
Tengamos en cuenta que no podemos examinar los algoritmos de Amazon; son completamente opacos y no han sido sometidos a escrutinio externo alguno. Amazon asegura que el secreto le permite seguir siendo competitiva y podría tener razón. Pero la misma lógica no puede aplicarse a la acción policial: si nadie va a poder examinar sus algoritmos –lo que es muy probable, ya que el software para el “patrullaje por predicción” se producirá por compañías privadas—no sabremos qué sesgos y prácticas discriminatorias contendrá.
Por ejemplo, los delitos tienden a producirse en áreas con pobreza y diversidad racial. ¿Pueden los algoritmos, con la objetividad que se les presume, dar fe incluso del más discriminatorio de los perfiles raciales? En la mayoría de los regímenes democráticos actuales, la policía necesita de causas probables –de alguna prueba y no sólo de conjeturas—para detener a alguien en la calle y registrarle. Pero, pertrechada con ese software, ¿puede simplemente la policía argüir que los algoritmos le decían que lo hiciera? Y si es así, ¿cómo pueden testificar los algoritmos ante un tribunal?
Luego está el problema de los delitos no denunciados. Mientras que la mayoría de los homicidios son denunciados, muchas violaciones y acosos domésticos no lo son. A pesar de la ausencia de esas denuncias, la policía sigue desarrollando maneras de informarse cuando algo extraño ocurre en los vecindarios de su jurisdicción. El patrullaje por predicción, por el contrario, podría sustituir ese conocimiento tácito con la ingenua creencia en el poder omnímodo de las estadísticas. Si para predecir delitos futuros y guiar el trabajo policial solamente se utilizan datos sobre delitos que han sido denunciados, algunos tipos de delitos pueden quedar completamente fuera de estudio, y por lo tanto sin perseguir.
Pero hay otra tendencia que facilita todavía más el trabajo de la policía y que, combinada con el patrullaje por predicción, podría tener unos resultados mucho más controvertidos. Hay compañías como Facebook que están utilizando cada vez más algoritmos y “big data” para predecir cuáles de sus usuarios podrían cometer delitos. La cosa funciona así: mediante el estudio de determinados indicios conductuales --¿escribe el usuario solamente mensajes a menores de 18 años? ¿la mayoría de los contactos del usuario son mujeres? ¿se mencionan palabras clave como “sexo” o “cita”?— Facebook puede, con sus propios sistemas de predicción, marcar a determinados usuarios como sospechosos. Su personal podría luego examinar cada caso y redirigirlo a la policía si fuera necesario.
La policía necesita someter sus algoritmos al escrutinio externo y corregir sus sesgos
Reuters informó recientemente del modo en que Facebook, armada con sus algoritmos predictores, pilló a un hombre de mediana edad chateando sobre sexo con una chica de 13 años y acordando un encuentro para el día siguiente. La policía contactó con la menor, revisó su ordenador y detuvo al hombre. Sin embargo, no se trata sólo de algoritmos; Facebook reconoce que, al igual que los departamentos de policía recurren a estadísticas delictivas previas, también recurre a archivos de chats reales que precedieron a agresiones sexuales reales.
Es difícil cuestionar la aplicación de tales métodos para atrapar a predadores sexuales que acosan a niños. Pero téngase en cuenta que Facebook puede estar haciendo todo tipo de trabajos policiales similares: detectando a potenciales traficantes de droga, identificando a potenciales violadores del copyright (Facebook ya impide a sus usuarios compartir vínculos de muchos sitios web con intercambio de archivos) y, especialmente tras los disturbios del año pasado en Gran Bretaña, haciendo un pronóstico sobre la siguiente generación de alborotadores.
Por supuesto que la policía ya está estudiando las redes sociales en busca de señales de malestar. Pero, a diferencia de Facebook, no ven el panorama en su conjunto: las comunicaciones privadas y las acciones “silenciosas” –sobre qué vínculos se hace clic o qué páginas web se abren—son invisibles para ellos. Pero Facebook, como Amazon con los libros, seguramente sabe todo eso, de manera que su poder de predicción es mucho mayor que el de la policía.
Además, si bien la policía necesita una orden para evaluar los datos privados de alguien, Facebook puede buscar los datos de sus usuarios cuando quiera hacerlo. Desde la perspectiva de la policía, podría ser realmente ventajoso tener a Facebook haciéndole todo ese trabajo sucio, ya que las investigaciones que realiza Facebook no tienen que pasar por el juez.
Dados los datos suficientes y los algoritmos adecuados, todos nosotros estamos abocados a parecer sospechosos. ¿Qué puede ocurrir, entonces, si Facebook –antes de que hayamos cometido delito alguno-- nos pone a disposición de la policía? ¿Tendríamos que luchar, como personajes de una novela de Kafka, por comprender qué delito es el nuestro realmente, y pasar el resto de nuestras vidas limpiando nuestra reputación? ¿Y si los algoritmos son equivocados?
La propuesta de una actuación policial por predicción podría ser real, pero también lo son sus peligros. La policía necesita someter sus algoritmos al escrutinio externo y corregir sus sesgos. Las redes sociales necesitan establecer unos estándares claros de cuánto hay de actuación policial predictiva en lo que realmente hacen y hasta dónde quieren llegar en la reproducción del perfil de sus usuarios.
Aunque Facebook pueda ser más efectivo que la policía en la predicción del delito no se le puede permitir que asuma esas funciones policiales sin que observe también las mismas reglas que dejan claro lo que la policía puede y no puede hacer en una democracia. No podemos sortear los procedimientos legales y subvertir las normas democráticas en nombre de la eficiencia.
Evgeny Morozov es profesor visitante en la Universidad de Stanford y profesor en la New America Foundation. Su último libro publicado en España es El desengaño de Internet. Los mitos de la libertad en la Red (Destino).
Traducción de Juan Ramón Azaola
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.