El precrimen de Milei

El gobierno del presidente Javier Milei en Argentina anunció la semana pasada la creación de un grupo de inteligencia artificial dentro de la Dirección de Delitos Cibernéticos y Asuntos Cibernéticos del país que utilizará software estadístico para predecir el delito.

"La misión de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS) es la prevención, detección, investigación y persecución del delito y sus conexiones mediante el uso de inteligencia artificial", afirma la resolución del Ministerio de Seguridad.


Se espera que la UIASS monitoree la internet pública y la dark web para investigar delitos e identificar a los perpetradores, realizar análisis de imágenes, analizar videos de cámaras de seguridad en tiempo real y "utilizar algoritmos de aprendizaje automático para analizar datos históricos de delitos para predecir futuros delitos y ayudar a prevenirlos", entre otras responsabilidades.

Como señaló El País en su edición internacional, el gobierno de Argentina, en medio de un recorte de agencias públicas, está creando una nueva agencia pública para predecir delitos, una noción que se hizo famosa en Minority Report, el cuento con moraleja del autor de ciencia ficción Philip K. Dick sobre perseguir a las personas por cosas que todavía no han hecho.

Sin embargo, el Ministerio de Seguridad argentino cita una fuente de inspiración diferente: "Países como Estados Unidos de América, China, Reino Unido, Israel, Francia, Singapur, India, entre otros, son pioneros en el uso de inteligencia artificial en sus áreas de gobierno y fuerzas de seguridad".

Andrew Ferguson, profesor de derecho en la American University en Washington DC y autor de "The Rise of Big Data Policing", dijo a The Register que, si bien no está familiarizado con iniciativas específicas de IA en Argentina, "es difícil encontrar tecnologías de vigilancia predictiva en redes sociales que realmente funcionen a gran escala".

Los pronósticos realizados en el contexto de la vigilancia predictiva han sido bastante pobres, según un informe de The Markup del año pasado, que encontró que las predicciones de delitos generadas en 2018 por Geolitica (luego adquirida por SoundThinking) para el Departamento de Policía de Plainfield (PD) tuvieron una tasa de éxito de menos del 50%.


En una publicación en twitter, el Centro de Estudios sobre Libertad de Expresión y Acceso a la Información de la Universidad de Palermo en Buenos Aires expresó su preocupación por la opacidad de la adquisición e implementación de tecnología por parte del gobierno argentino, y señaló que en el pasado se ha utilizado tecnología similar para perfilar a académicos, periodistas, políticos y activistas.


No todo el software predictivo es necesariamente inexacto o viola los derechos. En 2022, investigadores de la Universidad de Chicago afirmaron haber desarrollado un algoritmo con una precisión del 90% para predecir dónde ocurrirán los delitos con una semana de anticipación. El estudio también reveló que el crimen en las zonas más ricas resulta en más arrestos que el crimen en las zonas desfavorecidas, una falla institucional más que técnica.

Sin embargo, académicos de Argentina y Europa consideran que Prometea, un sistema de inteligencia artificial predictiva desarrollado por el Ministerio Público Fiscal de la Ciudad de Buenos Aires, es una historia de éxito. En un informe de 2020, los autores Juan G. Corvalán y Enzo Maria Le Fevre Cervini afirman que Prometea "predice la solución de un caso judicial en menos de 20 segundos con una tasa de éxito del 96%" y que "permite redactar 1000 sentencias judiciales relacionadas con el derecho a la vivienda en solo 45 días; de la manera tradicional, esto llevaría 174 días".

En una nota relacionada, un estudio de 2021 sobre la preparación de la IA en cinco países latinoamericanos dice que IBM, Accenture y Oracle, a quienes se les pidió que desarrollaran Prometea, estimaron que el proyecto costaría 100.000 dólares. Corvalán, fiscal adjunto de la fiscalía de Buenos Aires en ese momento, supuestamente dijo que los funcionarios, en cambio, miraron hacia adentro y pagaron a un desarrollador interno 33.000 pesos (unos 500 dólares dado un tipo de cambio de 2020 de 0,015) para que hiciera la primera versión del software.

Una encuesta de 2021 sobre la policía predictiva y el control del delito en los EE. UU. afirmó que, si bien los sistemas de inteligencia artificial pueden sufrir inexactitud, alto costo, sesgo y otras limitaciones, "existe consenso entre la mayoría de los investigadores sobre la importancia de los algoritmos predictivos en el panorama policial".

Un estudio universitario acaba de concluir que mencionar la "inteligencia artificial" en las descripciones de los productos genera desconfianza en los compradores e incluso puede reducir las compras.


Fuente: The Register


Comentarios

Entradas populares