Tecnologia para perpetuar el racismo: la Policia de Los Ángeles rebautiza sus herramientas contra el crimen : Internacional de
Es una mañana calurosa y humeda en Skid Row. Como es habitual desde hace decadas, sobre las sucias calles de este centrico barrio de Los Ángeles, en EEUU, se agolpan cientos de tiendas de campaña donde malviven miles de personas entre escombros, basura y desechos. Bautizada como la capital estadounidense de los sin techo, en este gueto tambien se encuentra el cuartel general de STOP LAPD Spying Coalition, una organizacion comunitaria cuyos activistas llevan años librando una feroz batalla contra los aparatos de vigilancia gubernamentales y el racismo sistemico arraigado historicamente en uno de los departamentos de Policia mas poderosos, influyentes y mejor financiados de EEUU: la Policia de Los Ángeles (LAPD).
Activistas y expertos señalan las herramientas del LAPD como modelos que perpetuan el racismo
Hamid Khan –la voz mas mediatica de la coalicion– y tres miembros de su equipo reciben a Publico. Nada mas comenzar la entrevista denuncian que Skid Row es, desde hace decadas, un “laboratorio humano” en tiempo real utilizado por el Departamento de Policia de Los Ángeles para experimentar con nuevas tecnologias antes de extender su aplicacion a otros distritos de esta gigantesca urbe.
La postura de los activistas es categorica: exigen la abolicion del sistema policial, del capitalismo voraz y denuncian la lucha por la tierra encabezada por los intereses corporativos. No es una vision exenta de polemica, pero gracias a los esfuerzos de la coalicion y a la movilizacion ciudadana han contribuido a desmantelar PredPol y Operacion LASER (Los Angeles Strategic Extraction & Restoration), dos controvertidas tecnologias de prediccion delictiva empleadas por el LAPD bajo el liderazgo de Bill Bratton que se implementaron entre 2009-2019 y 2011-2020, respectivamente. Durante años, activistas y expertos han señalado a estas herramientas como modelos que perpetuan el racismo sistemico contra las comunidades negras e indigenas en la primera potencia mundial.
“La fachada tecnologica le otorga al LAPD la coartada, la mascara y la licencia para llevar a cabo sus mismas practicas racistas y violentas, pero camuflandolas con sistemas informaticos y el lenguaje de la inteligencia artificial”, dice Khan.
Explica el activista que, a nivel conceptual, las herramientas predictivas utilizadas por el LAPD son una extension de la llamada politica Broken Windows, impulsada por Bratton (ahora exjefe de la Policia de Los Ángeles y de Nueva York) para combatir con agresividad delitos menores, incluyendo robos, el desorden publico o el esparcimiento de basura en las vias publicas. Utilizando los terremotos, las replicas y los epicentros sismicos como analogia, la premisa fundamental sobre la que se apoya Broken Windows es que los delitos menores conducen a los mayores y que estos ultimos se cometeran en el mismo lugar que los primeros.
“Broken Windows se implemento en Skid Row en el año 2005, asi que este barrio nos aporta un entendimiento detallado de la metodologia y de las practicas policiales… y de como hemos llegado hasta la actualidad”, asegura el activista.
Los origenes militares de PredPol
En el año 2010, siempre a la vanguardia de la innovacion tecnologica, el LAPD sello una alianza con Jeff Brantingham, profesor de antropologia de la Universidad de California en Los Ángeles (UCLA). Fruto de esta colaboracion y de las investigaciones previas del catedratico nacio PredPol, una compañia que dio sus primeros pasos con una inversion y con el beneplacito de UCLA Venture Capital Fund –el brazo capitalista de la conocida universidad estadounidense–.
PredPol se inspira en algoritmos militares empleados por EEUU para predecir el riesgo de insurgencia y terrorismo en conflictos belicos, como Irak y Afganistan. Y a Brantingham, que recibio fondos federales para desarrollar este algoritmo, le debio parecer una buena idea fomentar metodos de combate para aplacar delitos menores.
La herramienta analiza datos sobre delitos contra la propiedad ocurridos en el pasado para predecir focos geograficos calientes de posible delincuencia en el futuro. Con solo tres parametros (el tipo de delito, el lugar y la hora o fecha de este), el algoritmo determina a que barrios deben enviarse patrullas al inicio de cada jornada laboral, porque alli hay un mayor riesgo de que ocurra un crimen.
Segun un estudio encabezado por academicos de UCLA difundido en 2015, PredPol predijo y redujo con exito delitos de la propiedad en Los Ángeles durante varios meses de pruebas iniciales. El modelo, segun la investigacion, tambien era potencialmente aplicable en otras ciudades del mundo.
PredPol se inspira en algoritmos militares empleados por EEUU para predecir el riesgo de insurgencia y terrorismo en conflictos belicos
Sin embargo, los detractores de PredPol aseguran que esta herramienta convierte ciertos vecindarios, como Skid Row o South Central en Los Ángeles (con una gran poblacion negra), en zonas de intensa actividad policial, algo que, lejos de combatir delitos, “castiga” y “criminaliza” a comunidades que historicamente viven azotadas por la discriminacion, la persecucion policial y la amenaza del sistema penal.
“El mayor defecto de la policia predictiva es que no predice los delitos”, asegura Matthew Guariglia, analista politico y experto en vigilancia y practicas policiales para la fundacion Electronic Frontier Foundation (EFF). “Solo penaliza a la gente que vive alrededor de las zonas que la Policia patrulla con regularidad. Porque cuantos mas policias haya en una zona, mayor sera la probabilidad de que se arreste gente en ese barrio por delitos menores”.
Ademas de dinamitar la “presuncion de inocencia”, Guariglia asegura que las tecnologias predictivas son “una profecia condenada a cumplirse” que alimenta una dinamica en bucle: siempre se patrullan las mismas zonas, se efectuan detenciones en estas, los nuevos datos recopilados se integran al sistema informatico y asi se refuerzan las mismas tendencias y sesgos raciales a nivel policial.
Guariglia explica ademas que las tecnologias predictivas no imprimen innovacion a las practicas policiales modernas y que, en esencia, estas inteligencias artificiales cumplen la misma funcion que los expertos en estadistica desempeñaban en 1912.
“Desde los origenes de las fuerzas policiales, estas no pueden predecir un crimen. No son videntes”, afirma el analista. “Lo que pasa es que ahora esta labor la hacen compañias externas que te cobran un ojo de la cara, y tenemos que plantearnos si este gasto merece la pena y el impacto que la tecnologia esta teniendo en nuestras comunidades”, advierte el experto.
Operacion LASER: “extirpar” delincuentes
En 2011, la Policia angelina contrato los servicios de Justice and Security Strategies (JSS) –la empresa consultora de Craig Uchida– para poner en marcha otro de sus programas predictivos insignia: Operacion LASER. La iniciativa tenia como finalidad “extirpar” pandilleros y delincuentes violentos reincidentes con la misma “precision laser” que un cirujano aplica a un tumor maligno. “Continuando con la analogia medica, si se extraen delincuentes quirurgicamente, el tiempo de recuperacion del barrio se acorta”, dice uno de los documentos publicados por los impulsores de esta iniciativa.
En la fase previa a la implementacion de LASER, el LAPD genero un mapa de areas problematicas y puntos geograficos de interes (como aparcamientos, establecimientos de venta de alcohol y viviendas) a partir de detenciones y crimenes a punta de pistola ocurridos en dichas zonas.
Con estas regiones ya identificadas, arrancaba Operacion LASER. Se creo asi un Boletin de Delincuentes Cronicos con los nombres y datos de posibles sospechosos o individuos de interes, a quienes se les atribuyo una mayor probabilidad de reincidir y que, por tanto, debian estar sometidos a una mayor vigilancia policial.
“LASER es uno de los sistemas mas estupidos que jamas se han inventado”
Cada sospechoso recibio una puntuacion en funcion de su pertenencia o afiliacion a bandas criminales, antecedentes delictivos, arrestos, libertad condicional e interacciones con agentes del orden publico. Los datos recopilados se iban introduciendo y actualizando en el sistema informatico con fines predictivos.
“LASER es uno de los sistemas mas estupidos que jamas se han inventado, y la idea de que haya pasado el proceso [de prueba] o burocratico es algo que me supera”, asegura a Publico Andrew G. Ferguson, catedratico en Derecho de American University, una eminencia en el campo de las tecnologias policiales predictivas en EEUU y autor de The Rise of Big Data Policing.
“El STOP LAPD Spying Coalition realizo un gran trabajo identificando y mostrando los elementos racistas de la policia predictiva, algo que se ve de manera mas clara con LASER, un programa cuyo objetivo siempre es la gente negra, morena y pobre. Y eso esta muy claro”, agrega. “La policia predictiva puede usarse como un arma contra la gente pobre y en particular, la gente con la que ellos [la coalicion] trabajan en Skid Row”, asevera.
Segun el experto, la organizacion comunitaria ha sido “increiblemente efectiva” a la hora de articular los peligros de las tecnologias predictivas en Los Ángeles, y aclara que la urbe californiana no solo carece de politicas progresistas a nivel policial, sino que durante decadas ha dejado constancia de sus arraigadas practicas racistas. “Cuando tienes un departamento de Policia con antecedentes racistas y aplicas una tecnologia que unicamente introduce valores racistas, obtienes predicciones racistas y creas un sistema racista”, afirma Ferguson.

planeta, el marginal barrio de Skid Row esta considerado como la capital estadounidense
de los sin techo. — Aitana Vargas
Investigadores de Berkeley desenmarañan COMPAS
PredPol y LASER no fueron las unicas tecnologias en llegar al mercado hace mas de una decada. Con el auge y la moda de las herramientas predictivas, la inteligencia artificial y la recopilacion y el uso de datos masivos con fines penales y de vigilancia, tambien irrumpieron en el mercado estadounidense programas similares, como COMPAS. Utilizado por algunos magistrados y agentes de libertad condicional, este polemico software predice el riesgo de reincidencia de un delincuente asignandole una puntuacion que se emplea para dictar sentencia o determinar la libertad condicional o la prision preventiva de un individuo.
Ya en el año 2016, una investigacion exhaustiva de Pro-Publica revelo los tintes racialmente sesgados codificados en esta tecnologia. Tiempo despues, un equipo de expertos en ingenieria informatica de la Universidad de California en Berkeley –integrado por Hany Farid y Julia Dressel– logro desenmascarar el engranaje algoritmico secreto de COMPAS y reprodujo las predicciones de este a partir de tan solo dos parametros –la edad de un individuo y sus antecedentes– a pesar de que el algoritmo emplea 137 parametros.
El equipo de Berkeley tambien comparo la precision y las predicciones de COMPAS con las predicciones realizadas por una persona. Para ello, Dressel y Farid reclutaron por internet a un grupo de individuos sin experiencia en el sistema penal a quienes pagaron un dolar por participar en el estudio.
La probabilidad de que una persona negra sea encarcelada es cinco veces superior a la de una blanca
“La precision de ambos [de COMPAS y de las personas] esta en torno al 65%”, explica Dressel a Publico. “Una herramienta no es inherentemente superior a un humano a la hora de tomar una decision o de realizar una prediccion por el simple hecho de estar construida con dato. Es muy dificil predecir el comportamiento humano como un crimen”.
La ingeniera, que ahora trabaja en la ONG Recidiviz, aclara que los algoritmos son maquinas de aprendizaje cuyo funcionamiento gira sobre una asuncion central: que el futuro sera igual que el pasado. “Una herramienta no puede realizar predicciones precisas cuando los datos que se introducen en esta no son una representacion fiel de lo que realmente ha ocurrido en el mundo”, matiza.
“La gente esta cometiendo delitos que no se denuncian constantemente: Hay conductores que sobrepasan el limite de velocidad que jamas son arrestados, o consumidores de drogas ilegales a quien nadie denuncia”. Si estos parametros no se introducen en el software, las predicciones reflejan una realidad sesgada, opina Dressel.
Segun un estudio de 2022 remitido a Naciones Unidas por The Sentencing Project y la Union de Libertades Civiles (ACLU), la probabilidad de que una persona negra sea encarcelada es cinco veces superior a la de una blanca, mientras que para un latino, esta probabilidad se triplica con respecto al hombre blanco.
Ante esta realidad, los expertos tambien advierten que otro gran inconveniente de las inteligencias artificiales es que actuan como un “legitimador” de prejuicios preexistentes, ya que se sirven de “sello cientifico” y de etiquetas como “altamente sofisticado” para justificar sus engranajes algoritmicos y predicciones racialmente sesgadas. “Cuando se afirma que un programa es matematico, que esta cientificamente probado y que se cometera un delito en esta esquina en este momento, lo que se hace, esencialmente, es legitimar una corazonada”, dice Guariglia.

El Departamento de Justicia de EEUU da la voz de alarma
Los peligros de la inteligencia artificial y de las herramientas predictivas dentro del sistema penal y policial tampoco han pasado desapercibidos para el Departamento de Justicia de EEUU (DOJ) que, en el año 2014, remitio un informe al entonces presidente estadounidense Barack Obama advirtiendo de las preocupantes ramificaciones.
El trasfondo del informe –que se hizo publico gracias a las acciones legales y a un posterior acuerdo extrajudicial entre el Electronic Privacy Information Center (EPIC) y el DOJ– es esclarecedor. El DOJ destaco los riesgos de emplear estas herramientas para sentenciar o tomar decisiones que conciernen la libertad de un individuo “basandose en datos historicos de otras personas”, y recordo que “la justicia igualitaria exige que las decisiones tomadas en torno a una sentencia se basen principalmente en la propia conducta y en los antecedentes criminales del acusado” en cuestion.
Matematicos condenan el uso de algoritmos en practicas policiales porque reproducen y perpetuan las desigualdades raciales
Incluso cuando los algoritmos “parecen neutrales, cualquier modelo es susceptible de importar sesgos que se reflejan en los datos subyacentes“, reza el texto. La misma conclusion se extrae de las investigaciones sobre COMPAS realizadas por Berkeley.
A estas evaluaciones se sumaron en 2020 las criticas de cientos de matematicos que firmaron y enviaron una carta a la revista Notices of the American Mathematical Society condenando el uso de algoritmos en practicas policiales porque reproducen y perpetuan las desigualdades raciales. Ademas, instaron a sus colegas a finiquitar cualquier colaboracion en esta materia con las fuerzas del orden.
El activismo catalizo el desplome de PredPol y LASER
Asediada por la opinion publica y el aluvion de criticas de los expertos, en abril de 2019, la Policia angelina finiquito Operacion LASER. Y aunque de puertas para fuera pareciera lo contrario, lo hizo a regañadientes. “Hemos descontinuado LASER porque queremos reevaluar los datos”, aseguro Josh Rubenstein, portavoz del LAPD en aquella epoca. “Eran inconsistentes y estamos dando marcha atras”.
Un año despues, la Policia angelina alego recortes “presupuestarios” para anunciar el fin de PredPol. Aun asi, activistas y expertos coinciden en que el STOP LAPD Spying Coalition fue el catalizador de la caida en picado de estos programas gracias al liderazgo de Jamie Garcia, que abandero la causa en nombre de la coalicion alla por el año 2012.
Durante años, la organizacion implemento una extensa y agresiva estrategia con la comunidad como eje central, a quien acerco la problematica de la policia predictiva algoritmica en un lenguaje “entendible” y la hizo participe de la causa. “Incluso la gente en Skid Row salia de sus tiendas de campaña para sumarse a la conversacion”, explica Khan.

criminalizan a las comunidades negra e indigena. — Aitana Vargas
La labor de la coalicion ha sido titanica. Tambien “muy creativa” y “muy inteligente”, apunta Ferguson. Sus voluntarios organizaron sesiones semanales de brainstorming, redactaron detallados informes basados en extensas investigaciones, acudieron a instancias judiciales para exigir la obtencion de documentos celosamente custodiados por el LAPD, se reunieron de forma regular con una comision de la Policia para trasladarle sus quejas, exigieron transparencia y trazaron alianzas estrategicas con otros grupos.
“Sobre el año 2016, la coalicion nos contacto porque inicialmente queria apoyo tecnico para desenmascarar el algoritmo de PredPol”, explica a Publico Alexis Takanashi, una de las fundadoras de Free Radicals, una organizacion de ideologia abolicionista. Los equipos de Khan y Takanashi desarrollaron conjuntamente la Ecologia Algoritmica, un modelo que examina e identifica los actores e intereses que definen el proposito de los algoritmos predictivos. El objetivo final de la Ecologia Algoritmica es el desmantelamiento de estos poderes.
“De alguna manera, PredPol ni siquiera es el centro de la historia. Se trata de como las instituciones confabulan en pos de sus propios objetivos de cara a la comunidad sin el consentimiento o interes de esta”, matiza Takanashi.
Desde el Centro de Privacidad y Tecnologia de Georgetown University, su directora ejecutiva, Emily Tucker, explica que los miembros de la coalicion “son expertos no solo en la realidad politica en materia de vigilancia policial, sino tambien en las tecnologias y en los procesos presupuestarios” desarrollados por las compañias y los organismos gubernamentales que investigan.
El LAPD usa sus grandes recursos para mutar, reinventarse y empaquetar cualquier programa predictivo con otro envoltorio, aunque el fondo sea el mismo
En los ultimos años, de los conocimientos y victorias de la coalicion se han hecho eco medios de todo el mundo. Quiza uno de los logros mas aplaudidos sea que, a nivel legislativo, la ciudad californiana de Santa Cruz fuera la primera del pais en prohibir el uso de las tecnologias predictivas a nivel municipal. A esto se suma que el LAPD y el departamento de Policia de El Monte (CA) abandonaran PredPol. Incluso la ciudad britanica de Kent, que implemento este modelo para predecir crimenes violentos en 2013, decidio clausurar el programa en 2018.
“Se les deberia dar credito por ser, probablemente, el grupo antivigilancia policial mas exitoso del pais”, opina Ferguson. “Pero tambien son victimas de su propio exito”. Y es que con un presupuesto anual que supera los 3.000 millones de dolares, el LAPD tira de sus recursos para mutar, reinventarse y empaquetar cualquier programa predictivo con otro envoltorio, aunque el fondo sea el mismo. Un mes despues de la descontinuacion de PredPol, nacio Data-Informed Community-Focused Policing, una iniciativa de la Policia angelina considerada como una continuacion de los programas predictivos anteriores y que ya esta en el punto de mira del equipo de Khan. Y posiblemente debido a la cascada de criticas que lleva años recibiendo PredPol, los cerebros del programa decidieron hacerle un lavado de imagen y rebautizarlo: Geolitica.
“Como el atractivo de la policia predictiva es tan grande, constantemente atrapa la imaginacion de los departamentos de Policia que quieren hacer algo [ante el crimen]”, asegura Ferguson. Pero, al final, “la policia predictiva siempre trata de dar respuesta a una pregunta que no tiene respuesta: ¿Que vas a hacer para acabar con el crimen?”, concluye.
Este reportaje forma parte de una serie especial sobre ‘periodismo de soluciones’ financiada por ‘Publico’ y el Club de Prensa de Los Ángeles. La segunda parte de la serie se publicara en este diario en las proximas semanas.

