Los gobiernos y las empresas están rastreando nuestra vida con un marcador único que la mayoría de nosotros no puede ocultar ni cambiar: nuestro propio rostro. En todo el país, las comunidades se están oponiendo con leyes que restringen esta peligrosa tecnología. En respuesta, algunos gobiernos y empresas afirman que estas leyes sólo deberían aplicarse a algunas formas de reconocimiento facial, como la identificación de rostros, y no a otras, como la agrupación de rostros.

No estamos de acuerdo. Todas las formas de reconocimiento facial son una amenaza para la privacidad, la libertad de expresión y la justicia racial. Este artículo explora muchos de los diversos tipos de reconocimiento facial y explica por qué todos deben ser abordados por las leyes.

¿Qué es el reconocimiento facial?

En el nivel más básico, la tecnología de reconocimiento facial toma imágenes de rostros humanos e intenta extraer información sobre las personas que aparecen en ellas.

Así es como suele funcionar hoy en día:

En primer lugar, la imagen se procesa automáticamente para identificar qué es y qué no es una cara. Esto se suele llamar "detección de caras". Se trata de un requisito previo para todas las formas más sofisticadas de reconocimiento de rostros que analizamos a continuación. En sí misma, la detección de rostros no es necesariamente perjudicial para la privacidad del usuario. Sin embargo, existe una importante disparidad racial en muchas tecnologías de detección de rostros.

A continuación, el sistema extrae las características de cada imagen de un rostro. Los datos de la imagen sin procesar se convierten en un conjunto más pequeño de números que resumen los rasgos diferenciadores de un rostro. Esto suele llamarse "huella facial".

Las huellas faciales, en lugar de las imágenes faciales en bruto, pueden utilizarse para todas las tareas problemáticas que se describen a continuación. Un ordenador puede comparar la huella facial de dos imágenes distintas para intentar determinar si son la misma persona. También puede intentar adivinar otras características (como el sexo y las emociones) del individuo a partir de la huella facial.

Coincidencia de caras

La clase de reconocimiento facial más extendida suele llamarse "face matching". Trata de emparejar dos o más huellas faciales para determinar si son la misma persona.

Cualquier sistema de reconocimiento facial utilizado para el "seguimiento", la "agrupación" o la "verificación" de una persona desconocida puede utilizarse fácilmente para la "identificación"

El cotejo de rostros puede utilizarse para relacionar fotografías de personas desconocidas con sus identidades reales. Para ello se suele tomar una huella facial de una nueva imagen (por ejemplo, tomada por una cámara de seguridad) y compararla con una base de datos de huellas faciales "conocidas" (por ejemplo, una base de datos gubernamental de fotos de identificación). Si la huella desconocida se parece lo suficiente a cualquiera de las huellas conocidas, el sistema devuelve una posible coincidencia. Esto suele conocerse como "identificación facial".

El cotejo de rostros también puede utilizarse para averiguar si dos huellas faciales son de la misma cara, sin saber necesariamente a quién pertenece. Por ejemplo, un teléfono puede comprobar la cara de un usuario para determinar si debe desbloquearse, lo que suele llamarse "verificación facial". Asimismo, un sitio de redes sociales puede escanear las fotos de un usuario para tratar de determinar cuántas personas únicas están presentes en ellas, aunque puede no identificar a esas personas por su nombre, lo que suele llamarse "agrupación de rostros". Esta tecnología puede usarse para coincidencias uno a uno (¿son dos fotografías de la misma persona?), coincidencias uno a varios (¿coincide esta foto de referencia con alguna de un conjunto de imágenes?) o coincidencias muchos a muchos (¿cuántas caras únicas hay en un conjunto de imágenes?). Incluso sin asociar rostros a nombres, la coincidencia de rostros puede utilizarse para seguir los movimientos de una persona en tiempo real, por ejemplo, por una tienda o por una ciudad, lo que suele denominarse "seguimiento de rostros".

Todas las formas de comparación de rostros plantean graves problemas de derechos digitales, como la identificación, la verificación, el seguimiento y la agrupación de rostros. Los legisladores deben abordarlos todos. Cualquier sistema de reconocimiento facial utilizado para el "rastreo", la "agrupación" o la "verificación" de una persona desconocida puede utilizarse fácilmente también para la "identificación". La tecnología subyacente suele ser exactamente la misma. Por ejemplo, basta con vincular un conjunto de huellas faciales "conocidas" a un grupo de huellas faciales "desconocidas" para convertir la agrupación en identificación.

Aunque nunca se utilice la tecnología de identificación facial, las tecnologías de agrupación y seguimiento de rostros pueden amenazar la privacidad, la libertad de expresión y la equidad. Por ejemplo, la policía podría utilizar la tecnología de rastreo facial para seguir a un manifestante no identificado desde una concentración hasta su casa o su coche, y luego identificarlo con una base de datos de direcciones o matrículas. O la policía puede utilizar la tecnología de agrupación de rostros para crear una serie de fotos de un manifestante no identificado e identificarlo manualmente comparando esa serie con una base de datos de fotos policiales, cuando esa identificación manual hubiera sido imposible a partir de una sola foto del manifestante.

Precisión, error y sesgo

En 2019, Nijeer Parks fue detenido erróneamente tras ser identificado por un sistema de reconocimiento facial. A pesar de estar a 50 kilómetros del lugar del presunto delito, Parks pasó 10 días en la cárcel antes de que la policía admitiera su error.

A pesar de estar a 30 millas del lugar del presunto delito, Nijeer Parks pasó 10 días en la cárcel tras ser identificado erróneamente por un sistema de reconocimiento facial.

Nijeer Parks es al menos la tercera persona que ha sido detenida falsamente debido a una tecnología de reconocimiento facial defectuosa. No es casualidad que las tres personas sean hombres negros. El reconocimiento facial nunca es perfecto, pero es alarmantemente más propenso a errores cuando se aplica a cualquier persona que no sea un hombre blanco y cisgénero. En un estudio pionero de 2018, Joy Buolamwini y el Dr. Timnit Gebru demostraron que los sistemas de identificación facial identificaban erróneamente a las mujeres de color en una proporción más de 40 veces superior a la de los hombres blancos. Más recientemente, las pruebas del NIST de varios sistemas de reconocimiento facial de última generación confirmaron una amplia y dramática tendencia de tasas de "falsos positivos" dispares entre los grupos demográficos, con tasas de error más altas para los rostros que no eran blancos y masculinos.

Además, los sistemas de identificación de rostros que pueden funcionar mejor en pruebas de laboratorio -por ejemplo, intentando identificar disparos de cabeza bien iluminados- suelen ser mucho menos precisos en el mundo real. Cuando esa misma tecnología se somete a una tarea más realista, como la identificación de personas que pasan por la puerta de embarque de un aeropuerto, su rendimiento es mucho menor.

Por muchas razones, la implantación generalizada de la identificación facial -incluso si fuera precisa e imparcial- es incompatible con una sociedad libre. Pero la tecnología actual dista mucho de ser precisa, y está profundamente sesgada de manera que magnifica el racismo sistemático existente en nuestro sistema de justicia penal.

Esperamos que los investigadores encuentren los mismos tipos de errores y sesgos inaceptables en el seguimiento y la agrupación de rostros, como ya se ha encontrado en la identificación de rostros. Una razón más por la que las leyes de privacidad deben abordar todas las formas de reconocimiento facial.

Otra forma de reconocimiento facial: El análisis facial

El reconocimiento facial tiene muchas aplicaciones que van más allá de emparejar una huella facial con otra. También se utiliza para intentar adivinar los rasgos demográficos de una persona, su estado emocional, etc., basándose en sus rasgos faciales. Una industria floreciente pretende utilizar lo que suele llamarse "análisis facial" o "inferencia facial" para intentar extraer este tipo de información auxiliar de imágenes de rostros vivos o grabados. El análisis facial puede utilizarse en combinación con otras tecnologías, como el seguimiento ocular, para examinar la reacción facial a lo que se está mirando.

Análisis demográfico

Algunos proveedores afirman que pueden utilizar tecnologías de reconocimiento facial para asignar atributos demográficos a sus objetivos, como el sexo, la raza, la etnia, la orientación sexual y la edad.

Es dudoso que este tipo de análisis demográfico del rostro pueda "funcionar" realmente. Se basa en la suposición de que las diferencias en la estructura de un rostro son un reflejo perfecto de los rasgos demográficos, cuando en muchos casos eso no es cierto. Estos rasgos demográficos suelen ser construcciones sociales y muchas personas no encajan perfectamente en las etiquetas sociales.

Cuando "funciona", al menos según quien la despliega, la tecnología de inferencia facial demográfica puede ser extremadamente peligrosa para los grupos marginados. Por ejemplo, estos sistemas permiten a los vendedores discriminar a las personas por motivos de género o raza. Las tiendas pueden intentar utilizar el análisis facial para orientar a los clientes no identificados hacia diferentes productos y descuentos en función de su género o estado emocional, un intento erróneo tanto si tiene éxito como si fracasa. En el extremo más horrible, la inferencia demográfica automática puede ayudar a automatizar el genocidio.

Estas tecnologías también pueden perjudicar a las personas al no funcionar. Por ejemplo, el "reconocimiento de género" identificará erróneamente a cualquier persona que no presente rasgos de género tradicionales, y puede perjudicar a las personas transgénero, no binarias, no conformes con el género e intersexuales. Por eso algunos activistas están haciendo campaña para prohibir el reconocimiento automático del género y la orientación sexual.

Análisis de las emociones

El análisis facial también puede supuestamente identificar las emociones o el "afecto" de una persona, tanto en tiempo real como en imágenes históricas. Varias empresas venden servicios que, según dicen, pueden determinar cómo se siente una persona a partir de su rostro.

Esta tecnología es una pseudociencia: en el mejor de los casos, podría aprender a identificar algunas normas culturales. Pero las personas suelen expresar sus emociones de forma diferente, según la cultura, el temperamento y la neurodivergencia.

Esta tecnología es una pseudociencia: en el mejor de los casos, podría aprender a identificar algunas normas culturales. Pero las personas suelen expresar sus emociones de forma diferente, según la cultura, el temperamento y la neurodivergencia. Intentar descubrir un mapa universal de "expresión facial" a "emoción" es una cacería de francotiradores. El instituto de investigación AI Now citó la falta de base científica de esta tecnología y su potencial de abuso discriminatorio en un mordaz informe de 2019, y pidió a los reguladores que prohibieran su uso para decisiones importantes sobre vidas humanas.

A pesar de la falta de respaldo científico, el reconocimiento de emociones es popular entre muchos anunciantes e investigadores de mercado. Tras haber alcanzado los límites de las encuestas a los consumidores, estas empresas tratan ahora de evaluar cómo reaccionan las personas ante los medios de comunicación y los anuncios mediante la observación de vídeos, con o sin su consentimiento.

Y lo que es aún más alarmante, estos sistemas pueden utilizarse para la "pre-delincuencia" policial, es decir, para utilizar conjeturas asistidas por ordenador sobre el estado mental de personas que no han hecho nada malo. Por ejemplo, el Departamento de Seguridad Nacional de EE.UU. gastó millones en un proyecto llamado "FAST", que utilizaría la inferencia facial, entre otras cosas, para detectar la "mala intención" y el "engaño" de las personas en aeropuertos y fronteras. El análisis facial también puede incorporarse a los llamados "detectores de agresividad"que supuestamente pueden predecir cuándo alguien está a punto de volverse violento. Estos sistemas son extremadamente tendenciosos y no son en absoluto fiables, pero es probable que se utilicen para justificar una fuerza excesiva o una detención indebida contra quien el sistema determine que está "enfadado" o es "engañoso". El uso de algoritmos para identificar a las personas para la detención o el escrutinio disciplinario es extremadamente tenso, y hará mucho más para reforzar el sesgo existente que para hacer a alguien más seguro.

Algunos investigadores han llegado a sugerir que la "criminalidad" puede predecirse a partir del rostro de una persona. Es evidente que esto no es cierto. Esta tecnología agravaría de forma inaceptable los grandes problemas de la policía predictiva.

Actuar

Para mitigar los riesgos que plantean las múltiples formas de reconocimiento facial es necesario que cada uno de nosotros esté facultado para decidir en última instancia cómo se recogen, utilizan o comparten nuestros datos biométricos. Para protegerse a sí mismo y a su comunidad de la recopilación inconsentida de datos biométricos por parte de las empresas, póngase en contacto con sus representantes y dígales que se unan a los senadores Jeff Merkley y Bernie Sanders en la defensa de una ley nacional de privacidad de la información biométrica.

El uso gubernamental de la tecnología de reconocimiento facial es una amenaza aún mayor para nuestras libertades esenciales. Por eso los organismos gubernamentales deben poner fin a esta práctica, y punto. Más de una docena de comunidades, desde San Francisco hasta Boston, ya han tomado medidas prohibiendo a sus organismos locales la utilización de esta tecnología. Para saber cómo puedes tomar medidas hoy mismo para poner fin al uso de la tecnología de reconocimiento facial por parte del gobierno en tu zona, visita la página de recursos About Face de la EFF.

Para obtener una propuesta de taxonomía de los distintos tipos de reconocimiento facial de los que se habla en esta entrada, consulte esta lista de términos de uso común.