La organización internacional en defensa de los derechos humanos Human Rights Watch (HRW) denunció irregularidades en la Argentina, a raíz de la publicación de datos e imágenes de niños y adolescentes con órdenes de detención en la base de datos del Sistema de Consulta Nacional de Rebeldías y Capturas (CONARC), según un informe publicado este viernes.
El informe deja claro que esos datos e imágenes se publican periódicamente y online en la base de datos del CONARC, que depende del Ministerio de Justicia y Derechos Humanos. La información luego es usada como referencia para el sistema de reconocimiento facial que funciona en algunas estaciones del subte porteño. Sin embargo, el Ministerio de Justicia y Seguridad de la Ciudad negó que su base de datos incluya información de menores de edad.
Lo cierto es que el organismo internacional le envió una carta al Presidente Alberto Fernández, donde le solicitaron “que el Ministerio de Justicia y Derechos Humanos elimine de inmediato a todos los menores de 18 años de la versión pública de la CONARC”.
“Nuestra investigación revela que la base de datos que alimenta el sistema de reconocimiento facial viola los derechos a la privacidad de los niños en procesos penales, e incluye errores importantes. Asimismo, la tecnología de reconocimiento facial genera un riesgo mayor de falsas coincidencias en niños y niñas”, destaca el informe de HRW.
Según el análisis que hicieron, al menos 166 menores (la mayoría, acusados por delitos menores como robo) aparecieron en la lista de la CONARC entre mayo de 2017 y mayo de 2020.
“El derecho internacional sobre los derechos humanos indica que, en todas las etapas del proceso penal, los Estados deben garantizar el pleno respeto a la privacidad de los menores de quienes se sospecha la comisión de un delito. No se debe publicar información que pueda servir para identificarlos”, expresa el informe.
En tanto, desde el Ministerio de Justicia y Seguridad porteño negaron que la base de datos de la CONARC tuviera datos de menores de edad, afirmación que, según HRW, es “falsa”.
La organización enfatiza, además, que los sistemas de reconocimiento facial tienen tasas de error “considerablemente más altas” en casos de niños, ya que el algoritmo que utilizan está diseñado para rostros de adultos, y además, en muchos casos, las fotos de referencia que se usan para el reconocimiento son viejas, lo que aumenta todavía más el margen de error.
Información publicada este viernes por el diario estadounidense The Washington Post recuerda que entre fines de abril y mediados de julio de 2019, Buenos Aires reconoció un margen de error del 4% en esta tecnología. Es decir que “se ha detenido, esposado y llevado a comisarías a civiles inocentes después de haber sido identificados erróneamente”, especifican.
Para Human Rights Watch es un tema severo que requiere una solución inmediata, ya que la divulgación de los datos de menores puede “etiquetarlos permanentemente como criminales o delincuentes, lo cual podría afectar sus futuras posibilidades de acceso a Educación, atención de la Salud y otros derechos”.
Fuente: EFE