Nuestros datos personales y las formas en que las empresas privadas los recopilan y monetizan desempeñan un papel cada vez más importante en la vida moderna. Las bases de datos de las empresas son enormes, están interconectadas y son bastante opacas. El movimiento y uso de nuestros datos es difícil de entender, por no hablar de rastrear. Sin embargo, las empresas los utilizan para deducir cosas sobre nosotros, lo que les lleva a perder empleo, crédito y otras oportunidades. pérdida de  empleo, crédito y otras  oportunidades.

Un hilo unificador de este sistema omnipresente es la recopilación de información personal de comunidades marginadas y su posterior uso discriminatorio por parte de empresas y organismos gubernamentales, lo que agrava las desigualdades estructurales existentes en toda la sociedad. La vigilancia de datos es un problema de derechos civiles, y la legislación para proteger la privacidad de los datos puede ayudar a proteger los derechos civiles.

Recogida discriminatoria de datos

Nuestros teléfonos y otros dispositivos procesan una enorme cantidad de información personal muy sensible que las empresas recopilan y venden para obtener beneficios asombrosos. Esto incentiva a los actores en línea a recopilar la mayor cantidad posible de información sobre nuestro comportamiento. En algunos casos, se rastrea cada clic del ratón y cada se rastrea y luego  se vende a las empresas de tecnología publicitaria y a los intermediarios de datos que les prestan servicios.

Cuando las aplicaciones móviles son utilizadas de forma dispar por grupos específicos, la recopilación e intercambio de datos personales puede agravar los problemas de derechos civiles. Por ejemplo, una aplicación musulmana para rezar (Muslim Pro) vendió datos de geolocalización sobre sus usuarios a una empresa llamada X-Mode, que a su vez proporcionó acceso a estos datos al ejército estadounidense a través de contratistas de defensa. Aunque Muslim Pro dejó de vender datos a X-Mode, lo cierto es que la recogida y venta generalizada de estos datos por parte de muchas empresas hace que los usuarios sean vulnerables a la discriminación. Sin embargo, demasiadas empresas que recopilan datos de geolocalización pueden hacer dinero rápido vendiéndolos. Y las fuerzas de seguridad y otros organismos públicos son compradores habituales.

En 2016 se descubrió que Twitter, Facebook, Instagram y otras nueve plataformas de medios sociales habían proporcionado a la de software empresa  Geofeedia información sobre redes sociales y datos de localización de sus usuarios. Estos datos fueron posteriormente usados por departamentos de policia de todo Estados Unidos para localizar e identificar a los asistentes a las protestas de Black Lives Matter. El FBI también ha sido cliente de Geofeedia y un informe  de  The  Intercept reveló que la empresa de riesgo de la CIA, In-Q-Tel, ha invertido en Geofeedia. Estos ejemplos demuestran cómo la vigilancia de las redes sociales, la recopilación excesiva de datos y la divulgación de información por parte de las plataformas digitales pueden tener consecuencias desiguales de gran alcance para la población negra.

Además, las personas con menos ingresos suelen tener menos posibilidades de evitar que las empresas recopilen sus datos. Por ejemplo, algunas tecnologías baratas recopilan más datos que otras, como los smartphones baratos que vienen con aplicaciones preinstaladas que filtran datos y no se pueden eliminar. Asimismo, algunas empresas tecnológicas exigen a sus clientes un pago adicional para evitar la vigilancia de datos, como AT&T, que en su día cobró 29 dólares al mes a los clientes de ISP para evitar el seguimiento de su historial de navegación. Del mismo modo, algunas empresas tecnológicas exigen a sus clientes que paguen más por funciones de seguridad básicas que les protejan del robo de datos, como el nuevo plan de Twitter de cobrar 11 dólares al mes por la autenticación de dos factores. Lamentablemente, la privacidad de los datos suele ser un lujo que las personas con menos ingresos no pueden permitirse.

Uso discriminatorio de datos en la difusión de anuncios

Una vez recogidos los datos personales Información altamente sensible sobre millones de personas está ampliamente a la venta. Las empresas y los gobiernos la utilizan de forma que algunos grupos vulnerables de la sociedad reciben un trato desfavorable y otros quedan excluidos de importantes oportunidades. A pesar de las normas legales contra la discriminación por origen étnico, sexo y otras características, muchas empresas han utilizado algoritmos que dirigen la publicidad a grupos específicos. empresas  han  utilizado  algoritmos  que dirigen la publicidad en función de esas mismas características.

Muchas plataformas y anunciantes utilizan datos personales para dirigir anuncios a unas personas y no a otras. Por ejemplo, las audiencias personalizadas de Twitter permiten a los anunciantes dirigirse a los usuarios en función de palabras clave, intereses y ubicación geográfica, mientras que Google emplea una herramienta para refinar a sus públicos para que los anunciantes combinen su información con los datos de usuario de Google.

Esta selección suele ser discriminatoria. La Junta de la Reserva Federal  descubrió que "incluso los consumidores que buscan información para tomar decisiones con conocimiento de causa pueden verse frustrados a la hora de tomar las mejores decisiones para sí mismos o para sus familias y, en su lugar, pueden ser objeto de discriminación digital".

Las empresas han dirigido anuncios arriesgados a grupos vulnerables. Miles  de personas mayores han sido objeto de anuncios de inversiónes de alto riesgo, estafas o prestamistas.. Del mismo modo, los anuncios políticos se han dirigido a grupos étnicos minoritarios, provocando supresión de votantes. Esto es posible gracias a la recogida masiva de información personal y su recopilación en expedientes que identifican características como el origen étnico. Un anuncio dirigido usado por el expresidente Trump incluía un gráfico animado de Hillary Clinton que pretendía convencer a los votantes negros de que no votaran el día de las elecciones.

Los datos personales también se utilizan para impedir que determinados grupos reciban anuncios de oportunidades positivas. En 2016, por ejemplo, ProPublica reveló que Facebook permitía a los anunciantes excluir a grupos raciales protegidos de ver sus contenidos. Una revista académica informó anteriormente de que las mujeres reciben menos anuncios en linea  para empleos bien remunerados que los hombres. El impacto discriminatorio puede ocurrir incluso cuando el anunciante no tiene la intención de discriminar. En 2018, Upturn encontró que Facebook distribuyó su anuncio para un trabajo de conductor de autobús a una audiencia que era 80 por ciento hombres, a pesar de que Upturn no tenía la intención de dirigir el anuncio en función del género.

Los anuncios de vivienda también se han distribuido de forma racialmente discriminatoria. En 2019, Facebook fue objeto de una demanda en el Tribunal Federal alegando que la plataforma mantenía una "lista prepoblada de datos demográficos, comportamientos e intereses" para que los agentes inmobiliarios y los propietarios excluyeran a ciertos compradores o inquilinos de ver sus anuncios. La demanda alegaba además que esto permitía "publicar anuncios de viviendas que excluían a las mujeres, a las personas con discapacidad y a las de determinados orígenes nacionales". El sistema de Facebook ha evolucionado tras un acuerdo con el Departamento de Justicia de EE.UU. Al anunciar el acuerdo el Gobierno explicó que los algoritmos de Facebook infringían las leyes federales de vivienda justa.

El sistema generalizado de empresas que recopilan y monetizan información personal conduce en muchos casos a la distribución discriminatoria de anuncios. Como resultado, los grupos protegidos pierden importantes oportunidades de empleo y vivienda. Para evitar este tipo de discriminación en la distribución de anuncios, necesitamos leyes que limiten la recopilación inicial de información personal. 

Uso discriminatorio de datos en la toma de decisiones automatizada

Los bancos y los arrendadores utilizan sistemas automatizados de toma de decisiones para ayudar a decidir si prestan o no servicios a clientes potenciales. Del mismo modo, los empresarios utilizan estos sistemas para ayudar a seleccionar a sus empleados, y las universidades para seleccionar a los estudiantes. Estos sistemas de sistemas discriminan a los grupos vulnerables. Hay muchas soluciones a este problema, entre ellas, transparencia en el uso de los algoritmos y la aplicación rigurosa de las leyes contra las políticas de las organizaciones que discriminan a los grupos vulnerables.

Parte del problema es que los sistemas automatizados de toma de decisiones tienen fácil acceso a la enorme reserva de datos personales que las empresas han recopilado de nosotros y se venden entre sí. Estos datos alimentan el sesgo algorítmico. Así que parte de la solución consiste en vaciar estos depósitos limitando la forma en que las empresas recopilan nuestros datos.

Las tiendas físicas suscitan especial preocupación cuando utilizan tecnología de reconocimiento facial para examinar a todos sus clientes potenciales y excluir a los supuestamente no deseados. Muchas tiendas utilizan desde hace tiempo esta tecnología para intentar detectar potenciales ladrones de tiendas, a menudo basandose en datos de la justicia penal, que de por si, son  propensos a errores y estan racialmente sesgados. Recientemente se descubrió que Madison Square Gardens utilizaba esta tecnología para excluir a los empleados de un bufete de abogados que demandó a la empresa matriz del lugar. Una empresa podría extender fácilmente este tipo de "lista de enemigos" a las personas que, en Internet o en la acera, protestan contra las políticas discriminatorias de un local.

Además, el reconocimiento facial no funciona con demasiada frecuencia, sobre todo en el caso de los negros y las mujeres. La tecnología se utilizó para expulsar erróneamente a la adolescente negra Lamya Robinson de una pista de patinaje pública de Detroit tras identificarla erróneamente como una persona que supuestamente se había peleado allí. Una vez más, existe una solución de privacidad de datos para este problema de derechos civiles: prohibir a las empresas que recojan huellas faciales de cualquier persona sin obtener previamente su consentimiento voluntario, informado y expreso. Esto debe incluir el consentimiento para utilizar la cara de alguien (o un identificador similar como un tatuaje) en datos de entrenamiento para algoritmos.

Discriminación en la violación y el uso indebido de datos

La recopilación y almacenamiento de cantidades masivas de información personal también genera riesgos de que los empleados de las empresas abusen de los datos de formas que vulneren los derechos civiles. Por ejemplo, en 2014 y 2015, 52 empleados de Facebook fueron despedidos por explotar su acceso a los datos de los usuarios. Un ingeniero utilizó el repositorio de conversaciones privadas de Messenger, datos de localización y fotografías personales de Facebook para buscar por qué una mujer con la que salía dejó de responder a sus mensajes. Otro ingeniero utilizó los datos de Facebook para seguir a una mujer hasta su hotel. La recopilación excesiva de datos por parte de la empresa permitió este acoso.

El exceso de recolección también crea un riesgo de violación de datos, que puede afectar de manera dispar a las personas con ingresos más bajos. La violación de datos crea un riesgo colateral de robo de identidad, ataques de ransomware y spam no deseado��Para evitar estos ataques, las víctimas de las violaciones deben invertir tiempo y dinero en congelar y descongelar sus informes crediticios, supervisarlos y contratar servicios de prevención del robo de identidad. Estos costes financieros pueden ser a menudo más gravosos para las comunidades marginadas y de bajos ingresos. Además, la inestabilidad de la vivienda puede hacer más difícil alertar a las personas vulnerables de que se ha producido una violación.

Una forma importante de reducir este tipo de riesgos para los derechos civiles es que las empresas recojan y almacenen menos datos personales.

Divulgación de datos por parte de las empresas a los gobiernos, que los utilizan de forma discriminatoria.

La compra de datos personales a empresas puede alimentar prácticas gubernamentales discriminatorias. Los gobiernos utilizan sistemas automatizados de toma de decisiones para ayudar a tomar una multitud de decisiones sobre la vida de las personas, incluyendo si la policía debe hacer seguimiento o investigar a un vecindario o un vecino en particular, si los funcionarios de bienestar infantil deben investigar un hogar y si un juez debe liberar a una persona en espera de juicio. Estos sistemas, en palabras de Virginia Eubanks, "automatizan  la desigualdad". Cada vez más, los gobiernos compran datos de las empresas para utilizarlos en estas decisiones.

Asimismo, desde que el Tribunal Supremo de EE.UU. anuló el dictamen del caso Roe contra Wade, la salud reproductiva se ha convertido en un vector de ataque cada vez más importante para los derechos digitales. Por ejemplo, los datos de Google Maps pueden informar a la policía si has buscado la dirección de una clínica. Esta amenaza ampliada a los derechos digitales es especialmente peligrosa para las personas BIPOC, de bajos ingresos, inmigrantes, LGBTQ+ y otras comunidades tradicionalmente marginadas, así como para los proveedores de atención sanitaria que atienden a estas comunidades. Debemos reducir la oferta de datos personales que los alguaciles y cazarrecompensas contrarios al derecho a decidir pueden obtener de las empresas. Y también deberíamos limitar el acceso a esos datos por parte de la policia.

Además, la policía adquiere servicios de vigilancia facial de empresas como Clearview que extraen huellas faciales de miles de millones de personas sin su permiso y luego utilizan su base de datos de huellas faciales para ayudar a la policía a identificar a sospechosos desconocidos en fotos. Por ejemplo, Clearview ayudó a la policía de Miami a identificar a un manifestante de BLM.

El uso policial de este tipo de servicios de datos corporativos es intrínsecamente peligroso. Los falsos positivos del reconocimiento facial han causado la detención errónea de al menos cuatro hombres negros. En enero de 2020, la policía de Detroit utilizó software de reconocimiento facial para detener a Robert Williams por supuesto robo de relojes. Williams fue retenido por la policía durante 30 horas. Después de un largo interrogatorio, la policía admitió que "el ordenador debió de equivocarse". Un año antes, el mismo detective de Detroit detuvo a otro hombre, Michael Oliver, después de que el software de reconocimiento facial lo identificara erróneamente. Nijeer Parks fue acusado de robar en una tienda de aperitivos de Nueva Jersey y detenido por error tras una identificación errónea. Parks pasó 10 días en la cárcel y casi un año con cargos en su contra. Más recientemente, el Departamento de Policía de Baton Rouge arrestó y encarceló a Randal Reid durante casi una semana tras una coincidencia errónea con un robo.

Próximos pasos

Las empresas, los gobiernos y otras entidades utilizan los datos personales de muchas formas discriminatorias. Un enfoque necesario para resolver este problema es reducir la cantidad de datos que estas entidades pueden utilizar para discriminar. Para resistir a estos abusos de los derechos civiles en su origen, debemos limitar las formas en que las empresas recopilan y cosechan nuestros datos personales.

La EFF ha en repetidas ocasiones reclamado por este tipo de legislación sobre la privacidad. Para que sea eficaz, debe incluir defensas de la privacidad  y prohibir la práctica de "pagar por  privacidad"que perjudican a las personas con rentas más bajas. La legislación federal no debe prevalecer sobre la legislación estatal.

 

Related Issues