Reconocimiento facial: ¿tecnologías para hacer justicia o máquinas de nuevas injusticias?

Los sistemas presentan errores en los datos y sesgos que dan lugar a detenciones equivocadas. Mientras algunos ponen el ojo en cómo mejorar estos sistemas, ya hay ciudades que desalientan su uso.

Créditos: Ijudicial.
Créditos: Ijudicial.

El reconocimiento facial ingresó a la vida cotidiana hace tiempo: está presente en las apps de bancos, de fotos o de citas, en las redes sociales, en los trenes o en los aeropuertos. En diversos países del mundo, entre ellos Argentina, utilizan esta tecnología para encontrar sospechosos o prófugos de la justicia en las ciudades. Si antes la huella dactilar era la herramienta más confiable, hoy algunos organismos y gobiernos apuntan a que el reconocimiento facial sea de ayuda para los sistemas de seguridad. Pero como todo, puede fallar. ¿Cómo funciona esta tecnología en el ámbito judicial? ¿Afecta los derechos de las personas? ¿Qué sucede en el país y otras partes del mundo?

El reconocimiento facial utiliza algoritmos para identificar y verificar la identidad de personas a través del análisis de características del rostro capturadas por cámaras de vigilancia u otros dispositivos. El sistema evalúa de manera automática la cara escaneada y compara las características con miles de datos biométricos almacenados que pertenecen a otros rostros. El objetivo es encontrar a las personas vinculadas con actividades ilícitas y que están prófugas de la justicia.

Los riesgos exceden por mucho los pretendidos beneficios. Hay numerosos casos de detenciones equivocadas, y la evaluación de los sistemas y la calidad de datos disponibles al día de hoy nos permiten sostener que no están dadas las garantías técnicas para poder implementar un sistema de este tipo para su uso en tiempo real en nuestras ciudades”, explica Tomás Pomar, integrante del Observatorio de Derecho Informático en Argentina (O.D.I.A), a la Agencia de Noticias Científicas de la UNQ.

En Argentina, por ejemplo, en 2019 la Ciudad Autónoma de Buenos Aires había implementado el Sistema de Reconocimiento Facial de Prófugos (SRFP). Sin embargo, tras una serie de errores de la tecnología que confundió a personas con prófugos y luego de que el O.D.I.A, junto con el Centro de Estudios Legales y Sociales (CELS), presentara un recurso de amparo, el sistema se declaró inconstitucional y se encuentra suspendido hasta la fecha. 

“Tanto en CABA como en la gran mayoría de los casos, los modos en los que funcionan estas tecnologías se encuentran resguardados por el Derecho de Propiedad Intelectual de la empresa que provee las licencias del sistema a los gobiernos. Esto supone un gran problema de transparencia porque presenta trabas para conocer los criterios de funcionamiento y detección”, detalla el especialista.

Por otro lado, “la ausencia de controles de calidad mínimos han llevado a numerosos falsos positivos. En la Ciudad Autónoma de Buenos Aires tenemos dos casos registrados en los que personas sin pedido de captura fueron detenidas por la policía por varios días, sin ningún otro elemento más que la ‘decisión’ del sistema”, afirma Pomar.

Erróneos y hegemónicos

Además, el especialista explica que las Inteligencias Artificiales están entrenadas con rostros blancos y masculinos, por lo que tiende a equivocarse con mayor frecuencia con aquellos biotipos que no conocen.

“Si fue entrenado con rostros asiáticos, por ejemplo, el sistema tiende a tener mayor nivel de error con gente de otros biotipos, como grupos raciales diferentes, mujeres, personas trans o no binarias”, ejemplifica ante la Agencia. Esto da cuenta de la necesidad de que todos los datos y coincidencias que recolectan estos sistemas, sean cotejados por las personas. 

Por ejemplo, según cuenta la Red en Defensa de los Derechos Digitales radicada en México, un error de sesgo racial del sistema de reconocimiento facial provocó el encarcelamiento de un hombre afroamericano de 28 años, al ser confundido con el autor de dos robos de bolsos de lujo en el estado de Louisiana, Estados Unidos.

¿Se mejora o se pone en desuso?

En el momento en que la Ciudad Autónoma de Buenos Aires lanzaba el Sistema de Reconocimiento Facial de Prófugos –el cual está suspendido pero el jefe de Gobierno Jorge Macri quiere ponerlo nuevamente en funcionamiento– la ciudad de San Francisco, Estados Unidos, se consagraba como la primera en prohibir esta tecnología. La decisión se tomó en pos de proteger la privacidad de los ciudadanos. 

Además de poseer sesgos y que sus lógicas de funcionamiento no sean transparentes, estos sistemas discriminan a determinados ciudadanos, invaden su privacidad y dan lugar a posibles detenciones arbitrarias. El debate radica en si la solución es poner en desuso esta tecnología o mejorarla.

Pomar opina: “Si se quiere sacar beneficio, el sistema debe ser abierto para entender cómo funciona. A la vez, hace falta una política de seguridad informática robusta para este tipo de sistemas y que los datos con los que trabajen estén actualizados y verificados”. Según detalla –y así lo verificó un relator de la ONU–, el Sistema de Reconocimiento Facial de Prófugos de CABA trabajaba con una lista de datos de diferentes organismos con errores. Por ejemplo, incluía a menores de edad de dos o tres años a los que se les asignaba delitos como robos y lista de tribunales que no estaban al día. 

Sin datos de calidad no puede haber Inteligencias Artificiales confiables. Urge frenar la pelota y salir de la mecánica de salir corriendo atrás de la novedad para, así, poder desarrollar una estructura informática de uso público que sea segura”, declara Pomar a la Agencia.


Últimas noticias de la sección Tecnología:



¿Te gustó esta noticia? ¡Compartila!

Luciana Mazzini Puga

Licenciada en Comunicación Social (UNQ).