Nossos dados pessoais e as formas como as empresas privadas os coletam e monetizam desempenham um papel cada vez mais forte na vida moderna.  Os bancos de dados corporativos são imensos, interconectados e opacos.  A transferência e uso de nossos dados são difíceis de entender, quanto mais rastrear.  No entanto, empresas usam isso para chegar a inferências sobre nós, levando à perda de emprego, crédito e outras oportunidades.

Um fio unificador desse sistema generalizado é a coleta de informações pessoais de comunidades marginalizadas e o subsequente uso discriminatório por corporações e agências governamentais – exacerbando desigualdades estruturais existentes em toda sociedade. A vigilância de dados é um problema de direitos civis, e a legislação para proteger a privacidade de dados pode ajudar proteger os direitos civis.

 Coleta discriminatória de dados

Nossos telefones e outros dispositivos processam uma vasta quantidade de informações pessoais altamente confidenciais que corporações coletam e vendem por lucros surpreendentes.  Isso incentiva atores on-line a coletar o máximo possível de nossas informações comportamentais. Em algumas circunstâncias, cada clique do mouse e deslizamento da tela é rastreado e, em seguida, vendido para empresas de tecnologia de anúncios e os corretores de dados que os atendem. 

Quando as aplicações móveis são utilizadas de forma desigual por grupos específicos, a coleta e compartilhamento de dados pessoais pode agravar os problemas de direitos civis. Por exemplo, um aplicativo de oração muçulmana (Muslim Pro) vendeu dados de  geolocalização sobre seus usuários para uma empresa chamada X-Mode, que por sua vez forneceu acesso a esses dados para os militares norte-americanos através de empreiteiros de defesa. Embora Muslim Pro tenha parado de vender dados para o X-Mode, a terrível verdade permanece: a coleta e venda generalizada desses dados por muitas empresas torna os usuários vulneráveis à discriminação. No entanto, muitas empresas que coletam dados de geolocalização podem ganhar dinheiro rápido vendendo-os. E agentes de segurança pública e outras agências  governamentais são compradores regulares.

Em 2016, Twitter, Facebook, Instagram e outras nove plataformas de mídia social  forneceram à empresa de software Geofeedia informações de mídia social e dados de localização de seus usuários. Esses dados foram posteriormente usados por departamentos de polícia em todos os EUA para rastrear e identificar indivíduos que participaram dos protestos do Black Lives Matter. O FBI também foi cliente  da Geofeedia e uma reportagem do The Intercept revelou que uma empresa de capital de risco controlada pela CIA, a In-Q-Tel, é investidora na Geofeedia. Esses exemplos demonstram como o monitoramento de mídias sociais, a coleta excessiva de dados e as divulgações por plataformas digitais podem ter consequências duradouras para as pessoas negras.

Além disso, as pessoas de baixa renda geralmente são menos capazes de evitar a coleta corporativa de seus dados. Por exemplo, algumas tecnologias de preço mais baixo  coletam mais dados do que outras tecnologias, como telefones moveis inteligentes baratos que vêm com aplicativos pré-instalados que vazam dados e não podem  ser desinstalados. Da mesma forma, algumas empresas de  tecnologia  exigem que os clientes paguem mais  para evitar a vigilância de dados, como a AT&T que uma vez cobrou US $ 29 por mês aos clientes do provedor para evitar rastreamento dos seu histórico de navegação. Do mesmo jeito, algumas empresas de tecnologia exigem que os clientes paguem mais por recursos básicos de segurança que os protegem contra roubo de dados, como o novo plano do Twitter de cobrar US$ 11 por mês para autenticação de dois fatores. Infelizmente, a privacidade de dados muitas vezes é um luxo que as pessoas de baixa renda não conseguem pagar.

 Uso discriminatório de dados na veiculação de anúncios

Uma vez que os dados  pessoais são coletados, informações altamente confidenciais  sobre milhões de pessoas geralmente estão à venda. Empresas e governos usam de maneiras que visam alguns grupos vulneráveis da sociedade para tratamento desfavorecido – e excluem outros de oportunidades importantes. Apesar das regras legais contra a discriminação com base em etnia, gênero e outras características, muitas empresas têm usado algoritmos que direcionam anúncios de acordo com essas mesmas características. 

Muitas plataformas e anunciantes usam dados pessoais para direcionar anúncios para algumas pessoas e não para outras. Por exemplo, a ferramenta Públicos Personalizados  do Twitter permite que os anunciantes segmentem os usuários por palavras-chave, interesses e localização geográfica, enquanto o Google utiliza uma ferramenta de Segmentação por Lista de Clientes para que os anunciantes combinem suas informações com os dados do usuário do Google.

Esse direcionamento é frequentemente discriminatório. O Banco Central dos EUA descobriu que "mesmo os consumidores que buscam informações para tomar decisões informadas podem ser impedidos de fazer as melhores escolhas para si mesmos ou para seus famílias e, em vez disso, podem estar sujeitas a manipulação ou descriminação digital".

As empresas têm direcionado anúncios arriscados para grupos vulneráveis. Milhares de   idosos foram alvo de  anúncios de golpes de investimento por credores que especializavam em empréstimos de alto risco. Da mesma forma, os anúncios políticos foram  direcionados a grupos étnicos minoritários – levando à intimidação de eleitores. Isso foi possível por meio da coleta em massa de informações pessoais e da compilação em dossiês que identificam características tal como etnia. Um anúncio direcionado utilizado pelo ex-presidente Trump incluía um gráfico animado de Hillary Clinton que buscava convencer os eleitores negros a não votar no dia da eleição.

Os dados pessoais também são usados para impedir que determinados grupos recebam anúncios de oportunidades positivas. Em 2016, por exemplo, a ProPublica revelou que o  Facebook permitiu que anunciantes excluíssem grupos raciais protegidos da visualização de seu conteúdo. Uma revista acadêmica relatou anteriormente que as mulheres recebem menos anúncios on-line para empregos de alta remuneração do que os homens. O impacto discriminatório pode ocorrer mesmo quando o anunciante não pretende discriminar. Em 2018, a Upturn descobriu que o Facebook distribuiu seu anúncio de um emprego de motorista de ônibus para um público que era 80% homens, embora a Upturn não pretendesse que o anúncio fosse baseado em gênero.

Os anúncios de habitação também têm sido distribuídos de forma racialmente discriminatória. Em 2019, o Facebook foi alvo de um processo na Justiça Federal  alegando que a plataforma mantinha uma "lista pré-preenchida de dados demográficos, comportamentos e interesses" para corretores de imóveis e proprietários para excluir certos compradores ou locatários de ver seus anúncios. O processo alegou ainda que isso permitia "a colocação de anúncios de habitação que excluíam mulheres, pessoas com deficiência e aquelas de certas origens nacionais". Desde então, o sistema do Facebook  evoluiu após um acordo com o Departamento de Justiça dos EUA. Ao anunciar o acordo, o governo explicou que os algoritmos do Facebook violaram as leis federais antidiscriminatórias de habitação.

O sistema generalizado de empresas coletando e monetizando informações pessoais  leva, em muitos casos, à veiculação discriminatória de  anúncios. Como resultado, os grupos protegidos perdem oportunidades importantes de emprego e moradia. Para evitar essa discriminação na veiculação de anúncios, precisamos de leis que limitem a coleta inicial dessas informações pessoais.  

 Uso discriminatório de dados na tomada de decisão automatizada

Bancos e proprietários usam sistemas automatizados de tomada de decisão para ajudar a  decidir se devem ou não fornecer serviços a clientes em potencial. Da mesma forma, os  empregadores usam esses sistemas para ajudar a selecionar funcionários, e as faculdades os usam para ajudar a selecionar alunos. Tais sistemas discriminam contra grupos vulneráveis. Há muitas soluções para esse problema, incluindo transparência algorítmica e aplicação rigorosa de leis contra políticas organizacionais que impactam de forma díspar os grupos vulneráveis.

Parte do problema é que os sistemas automatizados de tomada de decisão têm fácil acesso ao vasto reservatório de dados pessoais que as empresas coletaram e vendem umas às outras. Esses dados alimentam o viés algorítmico. Então, parte da solução é drenar esses reservatórios, limitando a forma como as empresas coletam nossos dados em primeiro lugar.

 Preocupações especiais existem quando as lojas físicas usam tecnologia de reconhecimento facial para rastrear seus clientes em potencial para excluir clientes supostamente indesejados. Muitas lojas há tempo usam essa tecnologia para tentar detectar potenciais ladrões, muitas vezes confiando em dados da justiça criminal  propensos a erros e racialmente tendenciosos. O Madison Square Gardens foi flagrado recentemente usando essa tecnologia para excluir funcionários de um escritório de advocacia que processou a empresa que controla o local. Uma empresa poderia facilmente estender esse tipo de "lista de inimigos" para pessoas que, online ou na calçada do lado de fora, protestam contra as políticas discriminatórias de um local.

Além disso,  o reconhecimento facial muitas vezes não funciona – especialmente em relação a pessoas negras e mulheres. A tecnologia foi usada para expulsar erroneamente a adolescente negra Lamya Robinson de uma pista pública de patinação em Detroit depois de identificá-la erroneamente como alguem que supostamente havia entrado numa briga lá. Mais uma vez, há uma solução de privacidade de dados  para esse problema de direitos civis: proibir as empresas de coletar impressões faciais de qualquer pessoa, sem previamente obter sua permissão voluntária informada. Isso deve incluir o consentimento para  usar o rosto de alguém (ou identificador semelhante, como tatuagem) em dados de treinamento dos algoritmos

Discriminação na violação e uso indevido de dados

A coleta e o armazenamento de grandes quantidades de informações pessoais também geram riscos de que os funcionários das empresas abusem dos dados de maneiras que violam os direitos civis. Por exemplo, em 2014 e 2015, 52 funcionários do Facebook foram demitidos por aproveitar do seu acesso aos dados  de usuários. Um engenheiro usou o repositório de conversas privadas do Messenger, dados de localização e fotografias pessoais do Facebook para pesquisar por que uma mulher com quem ele namorou tinha parada de responder às suas mensagens. Outro engenheiro usou dados do Facebook para rastrear uma mulher até seu hotel. A coleta excessiva de dados pela empresa possibilitou esse assédio.

O excesso de coleta também cria risco de violação de dados, o que pode impactar de forma desigual as pessoas de baixa renda. O roubo de dados cria riscos colaterais de   roubo de identidade, ataques de ransomware e  mensagens indesejadas. Para evitar esses ataques, as vítimas de violação de dados tem que gastar tempo e dinheiro para congelar e descongelar seus relatórios de crédito,  monitorar seus relatórios de crédito e obter serviços de prevenção de roubo de identidade. Esses custos financeiros muitas vezes podem ser mais onerosos para comunidades de baixa renda e marginalizadas. Além disso, a instabilidade habitacional pode tornar mais difícil alertar as pessoas vulneráveis de que uma violação ocorreu.

Uma maneira importante de diminuir esses tipos de riscos de direitos civis é de fazer que as empresas coletem e armazenem menos dados pessoais.

Divulgação de dados por empresas ao governo, que os utilizam de forma discriminatória

 Práticas governamentais discriminatórias podem ser alimentadas pela compra de dados pessoais de empresas. Os governos usam sistemas automatizados de tomada de decisão para ajudar fazer uma infinidade de escolhas sobre a vida das pessoas, incluindo se a  polícia deve examinar uma pessoa ou vizinhança, se as autoridades de bem-estar infantil devem investigar uma casa e se um juiz deve libertar uma pessoa enquanto aguarda julgamento. Tais sistemas "automatizam a desigualdade", nas  palavras de Virginia Eubanks. O governo compra cada vez mais dados das empresas para uso nessas  decisões.

Da mesma forma, desde que a Suprema Corte dos EUA  derrubou Roe v. Wade,  a saúde reprodutiva tornou-se um vetor de ataque cada vez mais importante para os direitos digitais. Por exemplo, dados do Google Maps podem informar à polícia se você pesquisou o endereço de uma clínica. Essa ameaça expandida aos direitos digitais  é especialmente perigosa para BIPOC, pessoas de baixa renda, imigrantes, LGBTQ+  e outras comunidades tradicionalmente marginalizadas, e os provedores de serviços de saúde servindo essas comunidades. Devemos reduzir o fornecimento de dados pessoais que autoridades locais antiaborto e caçadores de recompensas podem adquirir das empresas. E também devemos limitar o acesso da polícia a esses dados.

Além disso, a polícia adquire serviços de vigilância facial de empresas como a Clearview, que extraem impressões faciais de  bilhões de pessoas sem sua permissão e usam seu banco de dados de impressões faciais para ajudar a polícia a identificar suspeitos desconhecidos em fotos. Por exemplo, a Clearview ajudou a polícia de Miami a identificar um manifestante a favor de vidas negras.  

O uso policial desse tipo de serviço de dados das empresas é inerentemente perigoso. Falsos positivos de reconhecimento facial causaram a prisão indevida de pelo menos quatro homens negros. Em janeiro de 2020, a polícia de Detroit usou um software de reconhecimento facial para prender Robert Williams por supostamente roubar relógios. Williams foi detido pela polícia por 30 horas. Após um longo interrogatório, a polícia admitiu que "o computador deve ter errado". Um ano antes, o mesmo detetive de Detroit prendeu outro homem, Michael Oliver, depois que o software de reconhecimento facial o identificou erroneamente como alguém que causava incêndios propositadamente. Nijeer Parks foi acusado de furtar comida em Nova Jersey e foi preso injustamente  após identificação incorreta. Parks passou 10 dias na prisão e quase um ano com acusações pairando sobre ele. Mais recentemente, o Departamento de  Polícia de Baton Rouge prendeu Randal Reid por quase uma semana após uma correspondência  incorreta com um ladrão.

Próximos passos

Empresas, governos e outros usam dados pessoais de muitas maneiras discriminatórias. Uma abordagem necessária para resolver esse problema é reduzir a quantidade de dados que essas entidades podem usar para discriminar. Para resistir esses abusos de direitos civis em sua origem, devemos limitar as maneiras que as empresas coletam nossos dados pessoais. 

O EFF tem promovida repetidamente essa legislação sobre privacidade. Para ser eficaz,  deve incluir a aplicação privada eficaz e proibir esquemas de "pagamento pela privacidade" que prejudiquem as pessoas de baixa renda. A legislação em nível federal  não deve se antecipar à legislação estadual.

Related Issues