Argentina anunció planes para utilizar inteligencia artificial para «predecir futuros delitos» antes de que se cometan. El concepto, que durante mucho tiempo fue tema de ciencia ficción, fue anunciado por el Ministerio de Seguridad del país como una nueva Unidad de Inteligencia Artificial Aplicada a la Seguridad.
La unidad estará encargada de la «prevención, detección, investigación y persecución del delito», además de realizar vigilancia con drones, patrullar las redes sociales y utilizar el reconocimiento facial para reforzar las medidas de seguridad.
La ministra de Seguridad, Patricia Bullrich, firmó una resolución que dice que «mejorará significativamente la eficiencia de las diferentes áreas del ministerio y de la policía federal y las fuerzas de seguridad, permitiendo respuestas más rápidas y precisas ante amenazas y emergencias».
Según el anuncio, la nueva unidad «utilizará algoritmos de aprendizaje automático para analizar datos históricos sobre delitos para predecir delitos futuros y ayudar a prevenirlos».
El ministerio citó a EEUU, China, Israel y otros países como pioneros en el uso de IA en operaciones de seguridad.
El Centro de Estudios sobre Libertad de Expresión y Acceso a la Información de Argentina señaló que, en el pasado, estas tecnologías se han utilizado para perfilar a académicos, periodistas, políticos y activistas. Exigieron transparencia sobre de dónde provienen las tecnologías y cómo, específicamente, se utilizan. El grupo dijo que cualquier falta de rendición de cuentas sería «preocupante».
Javier Milei, fue elegido a fines del año pasado después de hacer campaña con la promesa de abordar la creciente inflación y las tasas de pobreza del país, y al mismo tiempo ser duro contra el crimen.
Con la introducción del nuevo plan de prevención de delitos con inteligencia artificial, el viaje muy publicitado que realizó Milei a Silicon Valley a principios de este año está siendo analizado desde una nueva perspectiva. En mayo, se reunió con varios líderes tecnológicos en un intento de fomentar la inversión en su país.
Un tribunal porteño dictaminó en 2023 que el uso del reconocimiento facial por parte del gobierno era inconstitucional en la ciudad. El juez de esa causa dictaminó que la implementación del sistema de monitoreo se hizo «sin cumplir con los requisitos legales para la protección de los derechos personales de los habitantes de la Ciudad de Buenos Aires».
Fuente: CBSNews.com