Aplicación de reconocimiento facial para rastrear a personas sujetas a deportación
Aplicación de reconocimiento facial para rastrear a personas sujetas a deportación
- La Agencia de Servicios Fronterizos de Canadá planea implementar una aplicación que utiliza tecnología de reconocimiento facial para realizar un seguimiento de las personas a las que se les ha ordenado ser deportadas del país
OTTAWA.- La aplicación de informes móviles utilizaría datos biométricos para confirmar la identidad de una persona y registrar sus datos de ubicación cuando usa la aplicación para registrarse. Los documentos obtenidos a través del acceso a la información indican que la CBSA ha propuesto una aplicación de este tipo ya en 2021.
Un portavoz confirmó que este otoño se lanzará una aplicación llamada ReportIn.
Los expertos están señalando numerosas preocupaciones, cuestionando la validez del consentimiento del usuario y el posible secreto sobre cómo la tecnología toma sus decisiones.
Cada año, más de 2.000 personas a las que se les ha ordenado abandonar el país no se presentan, lo que significa que la CBSA “debe gastar recursos considerables en investigar, localizar y detener a estas personas”, dice un documento de 2021.
La agencia presentó una aplicación para teléfonos inteligentes como una “solución ideal”.
Obtener actualizaciones periódicas a través de la aplicación sobre la “dirección residencial, empleo, situación familiar, entre otras cosas, de una persona permitirá a la CBSA tener información relevante que puede usarse para contactar y monitorear a la persona en cuestión para detectar cualquier indicador temprano de incumplimiento de la ley”. dijo.
“Además, dada la automatización, es más probable que el individuo se sienta comprometido y reconozca el nivel de visibilidad que la CBSA tiene en su caso”.
Además, el documento señala: “Si la persona no se presenta para su eventual deportación, la información recopilada a través de la aplicación proporcionará buenas pistas de investigación para localizarlo”.
Una evaluación de impacto algorítmico para el proyecto, aún no publicada en el sitio web del gobierno federal, dijo que la tecnología de voz biométrica que la CBSA intentó utilizar estaba siendo eliminada debido a una “tecnología defectuosa” y desarrolló la aplicación ReportIn para reemplazarla.
Dijo que los “datos biométricos faciales y la ubicación de una persona, proporcionados por sensores y/o GPS en el dispositivo móvil/teléfono inteligente” se registran a través de la aplicación ReportIn y luego se envían al sistema de back-end de la CBSA.
Una vez que las personas envían fotos, un “algoritmo de comparación facial” generará una puntuación de similitud con una foto de referencia.
Si el sistema no confirma una coincidencia facial, inicia un proceso para que los oficiales investiguen el caso.
“La ubicación de las personas también se recopila cada vez que informan y si no cumple con sus condiciones”, dijo. El documento señala que las personas no serán “rastreadas constantemente”.
La aplicación utiliza tecnología de Amazon Web Services. Esa es una elección que llamó la atención de Brenda McPhail, directora de educación ejecutiva en el programa de políticas públicas en sociedad digital de la Universidad McMaster.
Dijo que si bien muchas empresas de reconocimiento facial envían sus algoritmos para pruebas al Instituto Nacional de Estándares y Tecnología de EE. UU., Amazon nunca lo ha hecho voluntariamente.
Un portavoz de Amazon Web Services dijo que su tecnología Amazon Rekognition está “probada exhaustivamente, incluso por terceros como Credo AI, una empresa que se especializa en IA responsable, e iBeta Quality Assurance”.
El portavoz añadió que Amazon Rekognition es un “sistema basado en la nube a gran escala y, por lo tanto, no se puede descargar como se describe en la guía de participación del NIST”.
“Es por eso que nuestro Rekognition Face Liveness fue sometido a pruebas según los estándares de la industria en iBeta Lab”, que está acreditado por el instituto como laboratorio de pruebas independiente, dijo el portavoz.
El documento de la CBSA dice que el algoritmo utilizado será un secreto comercial. En una situación que podría tener consecuencias que cambien la vida, McPhail preguntó si es “apropiado utilizar una herramienta que esté protegida por secretos comerciales o secretos de propiedad y que niegue a las personas el derecho a comprender cómo se toman realmente las decisiones sobre ellos”.
Kristen Thomasen, profesora asociada y catedrática de derecho, robótica y sociedad en la Universidad de Windsor, Ontario, dijo que la referencia a secretos comerciales es una señal de que podría haber impedimentos legales que bloqueen la información sobre el sistema.
Durante años ha habido preocupación acerca de que a las personas que están sujetas a errores en los sistemas se les prohíba legalmente obtener más información debido a las protecciones de propiedad intelectual, explicó.
La portavoz de la CBSA, Maria Ladouceur, dijo que la agencia “desarrolló esta aplicación para teléfonos inteligentes para permitir que los ciudadanos extranjeros y residentes permanentes sujetos a condiciones de control de inmigración se presenten sin tener que acudir en persona a una oficina de la CBSA”.
Dijo que la agencia “trabajó en estrecha consulta” con la Oficina del Comisionado de Privacidad en la aplicación. “La inscripción en ReportIn será voluntaria y los usuarios deberán dar su consentimiento tanto para usar la aplicación como para usar su imagen para verificar su identidad”.
Petra Molnar, directora asociada del laboratorio de derecho de refugiados de la Universidad de York, dijo que existe un desequilibrio de poder entre la agencia que implementa la aplicación y las personas que la reciben.
“¿Puede una persona realmente dar su consentimiento en esta situación en la que existe una gran diferencia de poder?”
Si una persona no da su consentimiento para participar, puede informar en persona como alternativa, dijo Ladouceur.
Thomasen también advirtió que existe un riesgo de errores con la tecnología de reconocimiento facial, y que el riesgo es mayor para las personas racializadas y las personas con piel más oscura.
Molnar dijo que es “muy preocupante que básicamente no haya discusión sobre… los impactos en los derechos humanos en los documentos”.
El portavoz de CBSA dijo que Credo AI revisó el software en busca de sesgos contra grupos demográficos y encontró una tasa de coincidencia facial del 99,9 por ciento en seis grupos demográficos diferentes, y agregó que la aplicación “se probará continuamente después del lanzamiento para evaluar la precisión y el rendimiento”.
La decisión final la tomará un humano, y los oficiales supervisarán todas las presentaciones, pero los expertos señalaron que los humanos tienden a confiar en los juicios hechos por la tecnología.
Thomasen dijo que existe una “tendencia psicológica bastante ampliamente reconocida entre las personas a ceder ante la experiencia del sistema informático”, donde se percibe que los sistemas informáticos son menos sesgados o más precisos.
Comments (0)