Обновление (от 13 июня, 2023): Эта публикация была обновлена, чтобы включить дополнительную информацию, предоставленную Muslim Pro. С подробным заявлением компании можно ознакомиться на её веб-сайте.

Наши персональные данные и способы, которыми частные компании собирают и монетизируют их, играют все более важную роль в современной жизни. Корпоративные базы данных непрозрачны, объемны и тесно взаимосвязаны. Перемещение и использование наших данных трудно понять, не говоря уже о том, чтобы отследить. Тем не менее, компании используют информацию, чтобы делать выводы о нас, что приводит к потере возможностей в сферах трудоустройства, кредитовании и прочих.

Одной из связующих нитей в этой обширной системе является сбор личной информации от маргинализованных сообществ и последующее дискриминационное использование корпорациями и правительственными учреждениями, что ведёт к усугублению существующего системного неравенства во всем обществе. Использование данных для слежки — это угроза для гражданских прав, и законы, гарантирующие конфиденциальность данных, могут помочь защитить гражданские права. 

Дискриминационный сбор данных

Наши телефоны и прочие устройства обрабатывают огромное количество высокочувствительной личной информации о нас, которую корпорации собирают и продают с поразительной прибылью. Прибыть стимулирует онлайн компании собирать как можно больше нашей поведенческой информации. В некоторых случаях каждый щелчок мыши и свайп по экрану отслеживается и затем продаётся технологичным рекламным компаниям и брокерам данных, которые их обслуживают.  

Там, где мобильные приложения используются специфическими группами по-разному, сбор персональных данных и обмен ими могут усугубить проблемы с гражданскими правами. Например, расследование Motherboard 2020 годапоказало, что брокер данных под названием X-Mode собирал данные о геолокации из тысяч приложений, включая Muslim Pro - молитвенное приложение, которым пользуются миллионы мусульман по всему миру. До заключения сделок с Muslim Pro X-Mode лицензировала аналогичные данные о геолокации через подрядчиков министерства обороны для вооруженных сил США. Хотя создатели Muslim Pro прекратили делиться данными с X-Mode, и утверждают, что никакие данные военным переданы не были, ужасающая реальность остается: широкомасштабный сбор и продажа данных о геолокации коммерческими компаниями может сделать пользователей уязвимыми для дискриминации, особенно учитывая что постоянными покупателями являются правоохранительные органы и прочие правительственные учреждения.

В 2016 году было установлено, что Twitter, Facebook, Instagram и девять других социальных сетей предоставляли разработчику программного обеспечения Geofeedia данные из своих социальных сетей и информацию о местоположении своих пользователей. Впоследствии эти сведения были использованы полицейскими департаментами по всей территории США для отслеживания и идентификации лиц, участвовавших в акциях протеста Black Lives Matter. ФБР также было клиентом Geofeedia, и в одной из статей The Intercept сообщалось, что в Geofeedia инвестировала венчурная фирма ЦРУ In-Q-Tel. Эти примеры иллюстрируют, как мониторинг социальных сетей, чрезмерный сбор информации и выдача данных цифровыми платформами могут иметь далеко идущие несправедливые последствия для чернокожих людей.  

Более того, люди с низким доходом зачастую в меньшей степени способны противостоять сбору своих данных корпорациями. Например, некоторые недорогие устройства собирают больше данных, чем другие, примером могут быть недорогие смартфоны, которые поставляются с большим количеством предустановленных приложений, которые приводят к утечке данных и не могут быть удалены. Помимо этого, некоторые технологические компании требуют от клиентов доплачивать, чтобы избежать слежки за ними, например, компания AT&T (интернет-провайдер) однажды взимала со своих клиентов 29 долларов в месяц за отключение отслеживания их интернет истории. Аналогичным образом, некоторые технологические компании требуют от клиентов доплачивать за базовые функции безопасности, которые защищают их от кражи данных, например, новая платная подписка Twitter требует 11 долларов в месяц за использование двухфакторной аутентификации. К сожалению, конфиденциальность данных часто является роскошью, которую люди с низким доходом не могут себе позволить.  

Дискриминационное использование данных для показа рекламы

 

Как только персональные данные собраны, высокочувствительная информация о миллионах людей массово выставляется на продажу. Корпорации и правительства используют это таким образом, что некоторые уязвимые группы общества подвергаются предвзятому обращению, а другие оказываются лишены важных возможностей. Несмотря на правовые нормы, запрещающие дискриминацию по этнической принадлежности, пола и прочих признаков, многие корпорации используют алгоритмы, которые таргетируют рекламу именно по ним.  

Многие платформы и рекламодатели используют персональные данные для таргетирования рекламы на одних людей, а не на других. Например, инструмент Twitter Tailored Audiences позволяет рекламодателям настраивать таргетинг по ключевым словам, интересам и местоположению, в то время как Google использует инструмент Customer Match, позволяющий рекламодателям комбинировать свою информацию с данными пользователей Google.  

Такой таргетинг часто носит дискриминационный характер. Совет федерального резерва установил, что “даже потребители, которые ищут информацию для принятия взвешенных решений, могут быть лишены возможности сделать наилучший выбор для себя или своих семей и вместо этого могут подвергнуться электронным ограничениям или практике красной черты (дискриминационная практика, при которой потенциальным клиентам, проживающим в районах, классифицируемых как "опасные" для инвестиций, отказывают в предоставлении услуг (финансовых и иных). В таких районах проживает значительное число расовых и этнических меньшинств, а также жителей с низким доходом.)”.  

Компании показывали рекламу сомнительного содержания уязвимым группам населения. Тысячи пожилых людей стали жертвами рекламы инвестиционных афер со стороны низкокачественных кредиторов. Аналогичным образом, политическая реклама была нацелена на этнические меньшинства, что привело к притеснению избирателей. Это стало возможным благодаря массовому сбору личной информации и составлению досье, в которых выделяются такие характеристики, как этническая принадлежность. Одна рекламная компания, заказанная бывшим президентом Трампом, демонстрировала анимированное изображение Хиллари Клинтон, целью которого было убедить чернокожих избирателей не участвовать в выборах.  

Персональные данные также используются для предотвращения получения определенными группами рекламы о позитивных возможностях. Например, в 2016 году ProPublica сообщила, что Facebook разрешил рекламодателям исключать защищённые расовые группы из просмотра их контента. Один академический журнал ранее сообщал, что женщины п��лучают меньше онлайн-объявлений о высокооплачиваемой работе, чем мужчины. Дискриминационное воздействие может иметь место даже в том случае, если рекламодатель не намерен проводить дискриминацию. В 2018 году Upturn обнаружила, что Facebook распространил своё объявление о вакансии водителя автобуса среди аудитории, которая на 80 процентов состояла из мужчин, хотя Upturn не намеревалась ориентировать рекламу по ��ризнаку пола.  

Объявления о продаже жилья также распространялись с расовой дискриминацией. В 2019 году Facebook стал субъектом судебного процесса в Федеральном суде, по причине того, что платформа вела “предварительно заполненный реестр демографических данных, моделей поведения и интересов” для риелторов и арендодателей, чтобы исключить просмотр их рекламы определенными покупателями или арендаторами. В иске также утверждалось, что это позволяло “размещать объявления о продаже жилья, которые не видели женщины, лица с ограниченными возможностями и лица определенного национального происхождения”. С тех пор система Facebook претерпела изменения в соответствии с соглашением с Министерством юстиции США. Оглашая решение, правительство пояснило, что алгоритмы Facebook нарушали федеральные законы о справедливом жилищном регулировании.  

Широко распространенная система сбора и монетизации личной информации компаниями во многих случаях приводит к показу дискриминационной рекламы. В результате защищенные группы упускают важные возможности при поиске работы и жилья. Чтобы избежать подобной дискриминации при показе рекламы, нам нужны законы, изначально ограничивающие сбор личной информации.  

Дискриминационное использование данных при автоматизированном принятии решений  

Банки и домовладельцы используют автоматизированные системы принятия решений, чтобы помочь решить, предоставлять ли услуги потенциальным клиентам или нет. Так и работодатели используют эти системы для подбора сотрудников, а колледжи - для отбора студентов. Такие системы дискриминируют уязвимые группы. Существует множество способов решения этой проблемы, например, алгоритмическая прозрачность и строгое соб��юдение законов в отношении организационной политики, которая несимметрично влияет на уязвимые группы.  

Отчасти проблема заключается в том, что автоматизированные системы принятия решений имеют удобный доступ к огромному массиву персональных данных, которые компании собирают о нас и продают друг другу. Эти данные и обеспечивают алгоритмическую предвзятость. Таким образом, часть решения заключается в том, чтобы ограничить это обеспечение, в первую очередь регулируя как именно компании собирают наши данные.  

Опасения возникают, когда обычные магазины используют технологию распознавания лиц для проверки всех своих потенциальных покупателей, чтобы исключить предположительно нежелательных покупателей. Многие магазины уже давно используют эту технологию для выявления потенциальных магазинных воров, часто полагаясь на подверженные ошибкам системы и расово предвзятую информацию из уголовных разбирательств. Недавно Мэдисон-сквер-Гарден был уличен в использовании подобной технологии для отказа в посещении сотруднику юридической фирмы, которая подала в суд на материнскую компанию заведения. Бизнес мог бы легко применять такого рода “список врагов” на людей, которые протестуют против дискриминационной политики заведения онлайн или на улице.  

Кроме того, распознавание лиц слишком часто не работает — особенно в отношении чернокожих людей и женщин. Например, технология была использована для отказа в посещении общественного катка в Детройте чернокожему подростку Ламии Робинсон после того, как система ошибочно приняла её за человека, который якобы подрался там. Опять же, существует решение проблемы защиты данных в области гражданских прав - запретить компаниям собирать изображения лиц у кого бы то ни было без предварительного получения их информированного и добровольного согласия. Это условие должно включать согласие на использование чьего-либо лица (или аналогичного идентификатора, например татуировки) в данных для ��бучения алгоритмов.  

Дискриминация при утечке данных и неправомерном использовании  

Сбор и хранение огромных объемов личной информации также создает риски того, что сотрудники компаний будут злоупотреблять своим доступом и нарушать гражданские права. Так в 2014 и 2015 годы 52 сотрудника Facebook были уволены за получение доступа к пользовательским данным. Один инженер использовал базу личных сообщений в мессенджере Facebook, данные о местоположении и личные фотографии, чтобы выяснить, почему женщина, с которой он встречался, перестала отвечать на его сообщения. Другой инженер использовал данные Facebook, чтобы отследить женщину до её отеля. Неограниченный сбор данных компанией обеспечил возможность к такому преследованию.  

Чрезмерный сбор данных также создает риск для утечки данных, которые могут несопоставимо сильно сказаться на людях с низким доходом. Кража данных создает сопутствующий риск кражи личности, атак программ-вымогателей и нежелательного спама. Чтобы избежать этих атак, жертвы взломов должны тратить время и деньги на замораживание и размораживание своих кредитных карт, мониторинг своих отчетов из банков и получение услуг по предотвращению кражи личных данных. Эти затраты часто могут быть более обременительными для населения с низким уровнем дохода и маргинализированных групп населения. Кроме того, непостоянный адрес проживания может затруднить оповещение уязвимых групп населения о произошедшем взломе. 

Важной мерой снижения такого рода рисков для гражданских прав является уменьшение количества хранимой и собираемой персональной информации всеми компаниями.

 Раскрытие корпорациями данных правительству, которое использует их в дискриминационных целях

 Дискриминационные практики со стороны правительства могут подогреваться покупкой персональных данных у корпораций. Правительства используют автоматизированные системы принятия решений, помогающие принимать множество вердиктов в отношении жизни людей, в том числе о том, должна ли полиция тщательно проверять человека или целый район, должны ли сотрудники службы социальной защиты проверять состояние дома детей и должен ли судья освободить человека из под стражи до судебного разбирательства. По словам Вирджинии Юбэнкс, такие системы “автоматизируют неравенство”. Правительство всё чаще покупает данные у компаний для принятия подобных решений.

 Вопросы репродуктивного здоровья также становятся всё более важным вектором атаки на цифровые права со времён рассмотрения в Верховном суде США дела Роу против Уэйда. Так, данные из Google Maps могут быть переданы в полицию, если вы искали адрес клиники для аборта. Растущая угроза цифровым правам особенно опасна для представителей расовых меньшинств, людей с низкими доходами, иммигрантов, ЛГБТК+ и других традиционно притесняемых сообществ, а также медицинских работников, обслуживающих эти категории граждан. Мы должны сократить объем персональных данных, которые противники права на аборт могут требовать от компаний. Также мы обязаны ограничить доступ полиции к подобной информации.

 При всём этом полиция приобретает доступ к сервису по распознаванию лиц у таких компаний, как Clearview, которые собирают изображения лиц миллиардов людей без их разрешения, а затем используют свою базу данных, чтобы помочь полиции идентифицировать неизвестных подозреваемых на фотографиях. Так, Clearview помогла полиции Майами установить личность участника акции протеста Black Lives Matter.

 Использование полицией такого рода коммерческих услуг обработки данных по своей сути опасно. Ложные срабатывания системы распознавания лиц привели к незаконному аресту по меньшей мере четырех чернокожих мужчин. В январе 2020 года полиция Детройта использовала программное обеспечение для распознавания лиц, для ареста Роберта Уильямса по подозрению в краже часов. Уильямс был задержан полицией на 30 часов. После долгого допроса полиция признала, что “��омпьютер, должно быть, ошибся”. Годом ранее тот же детектив из Детройта арестовал другого мужчину, Майкла Оливера, после того как программа распознавания лиц ошибочно идентифицировала его как подходящего под описание. Нидж Паркс был обвинен в краже закусок в магазине в Нью-Джерси и неправомерно арестован после распознавания личности с ошибкой. Паркс оказался в тюрьме на 10 дней и почти год провел с обвинениями в свой адрес. Совсем недавно полицейский департамент Батон-Руж арестовал и посадил в тюрьму Рэндала Рида почти на неделю после того, как система распознавания спутала его с человеком, совершившим кражу.

Следующие шаги

 Корпорации, правительства и другие организации используют персональные данные различными дискриминационными способами. Одним из необходимых подходов к решению этой проблемы является сокращение объема данных, которые эти субъекты могут использовать для дифференциации и притеснения. Чтобы в корне противостоять нарушениям гражданских прав, мы должны ограничить способы сбора компаниями наших персональных данных. 

EFF неоднократно призывал к принятию подобного закона о конфиденциальности. Чтобы быть продуктивным, он должен включать действенное частное правоприменение и запрещать схемы “плати за неприкосновенность частной жизни”, которые наносят ущерб людям с низкими доходами. Законодательство на федеральном уровне не должно доминировать над законодательством штата.

Related Issues