Logo
NOTICIAS
play VIDEOS

Inicio > Noticias > Privacidad y Vigilancia

9 de abril de 2025 a las 07:00

¿Predecir el crimen? Europa en alerta

En un mundo cada vez más dependiente de la tecnología, la línea entre la seguridad pública y la privacidad individual se difumina constantemente. El reciente anuncio del gobierno del Reino Unido sobre un programa de "predicción de asesinatos" ha encendido el debate sobre hasta dónde deben llegar las autoridades en su búsqueda por prevenir la violencia. Aunque el Ministerio de Justicia (MoJ) insiste en la naturaleza meramente investigativa del proyecto, renombrado como "compartir datos para mejorar la evaluación de riesgos", las revelaciones del grupo de presión Statewatch pintan un panorama mucho más inquietante.

La idea de un algoritmo capaz de predecir actos de violencia extrema, como el homicidio, suena a ciencia ficción. Sin embargo, la realidad es que este programa, comisionado durante el mandato de Rishi Sunak, ya está en marcha, analizando datos de miles de individuos conocidos por las autoridades. El MoJ argumenta que el objetivo es "revisar las características de los delincuentes que aumentan el riesgo de cometer homicidios" y "explorar técnicas innovadoras de ciencia de datos para la evaluación de riesgos". En teoría, esto permitiría una mejor asignación de recursos y una mayor protección para la sociedad.

No obstante, la controversia radica en la información utilizada para alimentar este algoritmo. Mientras el gobierno asegura que solo se emplean datos de personas con condenas penales, Statewatch denuncia que el programa también incluye información de individuos sin antecedentes, incluyendo víctimas de delitos, datos sobre autolesiones, abuso doméstico e incluso "marcadores de salud" como problemas de salud mental, adicciones y discapacidad. Esta discrepancia entre las versiones oficiales y las revelaciones de Statewatch genera una profunda desconfianza. ¿Qué datos se están utilizando realmente? ¿Se está respetando la privacidad de los ciudadanos?

La inclusión de "marcadores de salud" resulta especialmente preocupante. ¿Acaso una persona con historial de depresión o ansiedad tiene mayor predisposición a cometer un homicidio? La respuesta, evidentemente, es no. Utilizar este tipo de información no solo es intrusivo, sino que también perpetúa estigmas y prejuicios. Además, existe el riesgo de que el algoritmo reproduzca y amplifique sesgos preexistentes en el sistema judicial, discriminando a comunidades minoritarias y de bajos ingresos.

Imaginemos un escenario donde una persona, víctima de violencia doméstica, busca ayuda de las autoridades. Sus datos, en lugar de protegerla, terminan alimentando un sistema que la etiqueta como potencialmente peligrosa. Este tipo de situaciones, aunque hipotéticas, ilustran el peligro inherente a este tipo de programas. La predicción del crimen no puede basarse en la vulnerabilidad o en la desgracia ajena.

Sofia Lyall, investigadora de Statewatch, ha calificado el proyecto como "escalofriante y distópico", argumentando que estos sistemas algorítmicos son inherentemente defectuosos y refuerzan la discriminación estructural. Su crítica no debe tomarse a la ligera. La historia nos ha enseñado que las herramientas de control social, por muy bien intencionadas que sean, pueden ser utilizadas para fines perversos.

El MoJ ha prometido publicar un informe sobre el proyecto próximamente. Será crucial analizar con detenimiento sus conclusiones y exigir transparencia en cuanto a la metodología empleada y los datos utilizados. El debate sobre la seguridad y la privacidad es complejo y requiere un análisis profundo. No podemos permitir que el miedo a la violencia nos lleve a sacrificar nuestros derechos fundamentales. El futuro de la justicia penal no puede construirse sobre algoritmos opacos y potencialmente discriminatorios. Necesitamos un enfoque que priorice la prevención del delito, pero que al mismo tiempo respete la dignidad y los derechos de todos los ciudadanos.

Fuente: El Heraldo de México