更新版(2023 年 6 月 13 日): 此帖已更新,以反映穆斯林祈祷应用程序 (Muslim Pro) 提供的新信息。其完整陈述详见其网站

在当今社会,我们的个人数据以及私营企业获取这些数据并借其获利的方式正发挥着越来越强大的作用。企业数据库不仅庞大、互联,而且不透明。数据的流向和使用都难以弄清楚,更不用说追踪了。然而,企业利用这些数据对我们进行推断,导致我们失去就业、信贷和其他机会。 

这个普遍存在的系统有一个共同点,即收集边缘化社区的个人信息,然后由企业和政府机构歧视性地加以使用——这加剧了整个社会现有的结构性不平等。数据监控是公民权利问题,而保护数据隐私的立法有利于保护公民权利。 

歧视性数据收集

我们的手机和其他设备处理大量高度敏感的个人信息,而企业则收集并出售这些信息以获取惊人的利润。这激励了网络参与者竭力收集我们的行为信息。在某些情况下,每一次鼠标点击和屏幕滑动都会被追踪,然后卖给广告技术公司和为其服务的数据掮客。 

当特定群体以不同的方式使用移动应用程序时,个人数据的收集和共享会加剧民权问题。例如,2020 年的 Motherboard 调查案发现,一个名为 X-Mode 的数据代理公司从数以千计的应用程序中收集地理定位数据,这些程序中也包括 Muslim Pro——全球数百万穆斯林使用的祈祷应用程序。 在接触 Muslim Pro 之前,X-Mode 已通过国防承包商,将类似的地理定位数据授权给美国军方。虽然 Muslim Pro 已停止和 X Mode 分享数据,且 Muslim Pro 坚持其未与军方分享任何数据,事实却仍然触目惊心:企业对定位数据的广泛收集和分享会导致用户容易成为受歧视对象,特别是在执法部门和其他政府机构经常购买这些数据的情况下。

2016 年,Twitter、Facebook、Instagram 和另外九个社交媒体平台被发现向软件公司 Geofeedia 提供来自其用户的社交媒体信息和位置数据。之后,这些数据被美国各地的警察部门使用,用于追踪和识别参加“黑人的命也是命”抗议活动的个人。联邦调查局也是 Geofeedia 的客户The Intercept 网站的一份报告披露:中情局的风投机构 In-Q-Tel 投资了 Geofeedia。这些例子表明,数字平台对社交媒体的监控、过度的数据收集和披露会对黑人造成深远的不公平后果。

此外,低收入者往往不太能够避免企业对其数据的采集。例如,一些价格较低的技术比其他技术收集更多数据,如廉价的智能手机,其中预装的应用程序会泄露数据,而且无法删除。同样,一些科技公司要求客户支付额外费用以避免数据监控,比如 AT&T 曾经向 ISP 客户收取 29 美元/月,才能不跟踪他们的浏览历史。无独有偶,一些科技公司要求客户支付额外费用,才能享受免遭数据窃取的基本安全功能,比如 Twitter 的新计划是收费 11 美元/月用于提供双重认证。数据隐私往往是一种低收入者无法负担的奢侈品,何其可悲。

广告投放中的歧视性数据使用 

一旦个人数据被收集,关于成千上万人的高度敏感信息就会待价而沽。企业和政府针对社会中的一些弱势群体使用这些信息,使其受到不利的待遇,甚至阻止部分人获得重要机会。尽管法律规定禁止基于种族、性别和其他特征的歧视,但许多公司已经使用了广告精准投放算法,专门针对这些特征。 

许多平台和广告公司利用个人数据将广告准确投放给特定人群。例如,Twitter 的 定制受众(Tailored Audiences)工具使广告公司能够根据关键词、兴趣和地理位置来定位用户;谷歌则采用了目标客户匹配 (Customer Match)工具,让广告公司将其信息与谷歌的用户数据相结合。

这种针对往往是歧视性的。美国联邦储备委员会发现:“即使是那些为了做出明智决定而主动查找信息的消费者,也可能受阻,无法为自己或家人做出最佳选择,反而可能受到数字红线歧视(英文:digital redlining,用于描述宽带供应商故意将低收入客户留在较慢的传统宽带基础设施上,而对较富裕社区的基础设施进行升级)或引导(英文:steering,房地产中的引导是基于受法律保护的特征而对租房者和买房者进行歧视的非法行为。当房地产经纪人根据客户的个人特征(包括种族、性别和性取向),对客户的要求或需要做出假设时,引导就会有意识地甚至无意识地发生。)”。 

很多公司曾将有风险的广告定向投放给弱势群体。 不计其数的老年人成为次贷机构投资诈骗广告的目标。同样,政治广告也以少数族裔群体为目标,导致选民压制。这是通过大量收集个人信息并将其编入识别种族等特征的档案而实现的。美国前总统特朗普就使用过一则有针对性的广告,其内容包含希拉里·克林顿的动画图片,试图说服黑人选民不要在选举日投票。

个人数据也被用来阻止特定群体收到关于积极机会的广告。例如,2016 年,ProPublica 披露 Facebook 允许广告公司阻止受保护的种族群体收到其广告内容。此前,一份学术期刊曾报道,女性收到的高薪工作在线广告比男性少。即使广告公司不是故意歧视,也会出现歧视性影响。2018 年,Upturn 发现 Facebook 为其发布巴士司机招聘广告时,受众的 80% 为男性,但 Upturn 并不打算根据性别来投放广告。

房屋广告在发布时也有种族歧视现象。2019 年,Facebook 被起诉至美国联邦法院,指控该平台为房地产经纪人和房东做了一份“人口统计信息、行为和兴趣的预填充列表”,以阻止特定买房者或租房者看到他们的广告。该诉讼还称,此举使得“房屋广告的投放排除了女性、残疾人和某些族裔的人”。在与美国司法部达成协议后,Facebook 的系统进行了升级。在宣布和解时,美国政府解释说,Facebook 的算法违反了美国联邦公平住房法。

企业收集个人信息并据此获利的普遍系统在很多情况下导致了歧视性的广告投放。作为结果,受保护群体错失了重要的工作和住房机会。为了避免广告投放中的这种歧视,我们需要法律来限制源头的个人信息收集。  

自动化决策中的歧视性数据使用

银行房东会使用自动化决策系统来协助决定是否向潜在客户提供服务。同样,雇主会使用这些系统来协助选择员工,大学用它们来协助选择学生。 这些系统弱势群体存在歧视。这个问题有很多解决方案,包括算法的透明度以及严格执行法律,反对对弱势群体产生不同影响的组织政策。

问题的一部分在于,自动化决策系统可以轻易获得众多企业从我们这里收集并相互出售的海量个人数据。这些数据助长了算法的偏见。因此,解决方案的一部分是从源头上限制企业收集我们的数据,排空这些数据库。

值得特别关注的是,实体店使用人脸识别技术筛选所有潜在顾客,从而排除所谓的不受欢迎的顾客。许多商店长期以来一直使用这种技术,试图识别可能存在的商店扒手,依靠的往往是容易出错、带有种族偏见的刑事司法数据。麦迪逊广场花园最近被发现使用这种技术来排除一家起诉了该场馆母公司的律师事务所的雇员。企业可能随意扩大这种“仇人名单”,将在网上或外面人行道上抗议某个场所的歧视性政策的人也包含在内。 

此外,人脸识别常常无法达到预期效果,特别是对黑人和女性。这项技术曾经错误地将黑人少女 Lamya Robinson 从底特律的一个公共滑冰场驱逐出去,因为她被错误识别成一个据称在那里打过架的人。同样,这个民权问题也有一个数据隐私解决方案:禁止企业在没有事先获得自愿、知情、选择同意的情况下收集任何人的面纹。这必须包括同意将某人的面部(或类似的识别特征,如纹身)用于算法的训练数据。 

数据泄露和滥用中的歧视

收集和储存大量的个人信息也会产生风险,即企业员工可能以侵犯公民权利的方式滥用数据。例如,在 2014 年和 2015 年,52 名 Facebook 员工因滥用他们对用户数据的访问权被解雇。一名工程师利用 Facebook 私人 Messenger 的对话、位置数据和个人照片数据库,来搜索他约会的一名女子为何不再回复他的信息。另一位工程师利用 Facebook 的数据追踪一位女士到她所住的酒店。是该公司对数据的过度收集促成了这种骚扰。

过度收集也造成了数据泄露的风险,这可能会对低收入人群产生截然不同的影响。数据窃取造成了身份盗窃勒索软件攻击和非自愿接收的垃圾邮件等附带风险。为了避免这些攻击,数据泄露受害者必须花费时间和金钱来冻结和解冻他们的信用报告,监测他们的信用报告,以及获取身份盗用预防服务。这些财务费用对低收入和边缘化社区来说往往是更沉重的负担。此外,住所的不稳定可能导致提醒弱势人群发生数据泄露变得更加��难。

减少这类民权风险的一个重要方法是企业少收集和储存个人数据。

企业向政府披露数据,政府以歧视性的方式使用这些数据

向企业购买个人数据助长了政府的歧视性做法。政府使用自动化决策系统来帮助做出有关人们生活的大量选择,包括警察是否应该搜查某个人或社区,儿童福利官员是否应该调查某个家庭,以及法官是否应该释放某个正在等待审判的人。用 Virginia Eubanks 的话说,这样的系统“将不平等自动化了”。政府从企业购买数据用于这些决策的做法愈演愈烈。

同样,自从美国最高法院推翻罗诉韦德案以来,生殖健康已经成为数字权利的一个越来越重要的攻击途径。例如,如果你搜索了一个诊所的地址,谷歌地图的数据就可以告知警方。对 BIPOC(黑人、原住民和有色人种)、低收入者、移民、性少数群体和其他传统上被边缘化的社区,以及为这些社区服务的医疗保健提供者来说,不断加剧的对数字权利的威胁尤其危险。我们应该减少供应反对自由堕胎的治安官和赏金猎人可以从企业获得的个人数据。而且,我们还应该限制警察访问这些数据。

此外,警方从 Clearview 等公司获得人脸监控服务,这些公司在未经允许的情况下提取数十亿人的面纹,然后利用其面纹数据库帮助警方识别照片中的不明嫌疑人。例如,Clearview 公司帮助迈阿密警方识别出一名“黑人的命也是命”的抗议者。 

警方使用这种企业数据服务本身就很危险。人脸识别的误报已经导致至少四名黑人男子被错误逮捕。2020 年 1 月,底特律警方使用人脸识别软件逮捕了 Robert Williams,称其涉嫌偷窃手表。他被警方关押了 30 个小时。经过长时间的审讯,警方承认“电脑肯定搞错了”。一年前,同一名底特律警探因脸部识别软件的错误识别而逮捕了另一名男子 Michael Oliver。Nijeer Parks 因错误识别而被指控在新泽西州的商店里偷窃零食,之后被错误逮捕。他在监狱里度过了 10 天,并有将近一年时间面对悬而未决的指控。最近,因为被错误匹配到一起盗窃案,巴吞鲁日警察局逮捕了 Randal Reid,并将其监禁了将近一周。

后续行动

企业、政府和其他机构以多种歧视性的方式使用个人数据。解决这个问题的一个必要方法是减少这些实体可以用来歧视的数据量。为了从源头上抵制这些侵犯公民权利的行为,我们必须限制企业收集和获取个人数据的方式。 

EFF 已经多次呼吁进行这样的隐私立法。要想取得效果,此法必须包括有效的私人执法,并禁止伤害低收入者的“为隐私付费”企图。联邦级立法不得取代州立法。

 

Related Issues