Aktualisierung (13. Juni 2023): Dieser Beitrag wurde aktualisiert, um zusätzliche Informationen von der Organisation "Muslim Pro" zu berücksichtigen. Die vollständige Erklärung kann über die Website von Muslim Pro abgerufen werden.

Unsere persönlichen Daten und die Art und Weise, wie private Unternehmen sie sammeln und zu Geld machen, spielen im modernen Leben eine immer größere Rolle. Die Datenbanken der Unternehmen sind riesig, miteinander vernetzt und undurchsichtig. Die Bewegung und Verwendung unserer Daten ist schwer zu verstehen, geschweige denn nachzuvollziehen. Dennoch nutzen Unternehmen sie, um Rückschlüsse auf uns zu ziehen, was zum Verlust von Arbeitsplätzen, Krediten und anderen Möglichkeiten führt.

Ein roter Faden in diesem allgegenwärtigen System ist die Sammlung persönlicher Daten von marginalisierten Gemeinschaften und die anschließende diskriminierende Nutzung durch Unternehmen und Regierungsbehörden. Hierdurch werden bestehende strukturelle Ungleichheiten in der Gesellschaft noch verschärft. Datenüberwachung ist ein Bürgerrechtsproblem – Gesetze zum Schutz des Datenschutzes können zum Schutz der Bürgerrechte beitragen.

Diskriminierende Erhebung von Daten

Unsere Telefone und andere Geräte verarbeiten eine riesige Menge hochsensibler persönlicher Daten, die von Unternehmen gesammelt und mit erstaunlichem Gewinn verkauft werden. Dies ist ein Anreiz für Online-Akteure, so viele unserer Verhaltensdaten wie möglich zu sammeln. Unter Umständen wird jeder Mausklick und jede Bildschirmberührung verfolgt und dann an Werbetechnologieunternehmen und die von ihnen beauftragten Datenmakler verkauft.


Wenn mobile Apps von bestimmten Gruppen unterschiedlich genutzt werden, kann die Sammlung und Weitergabe personenbezogener Daten Probleme mit Bürgerrechten verschärfen. Eine Untersuchung von Motherboardaus dem Jahr 2020 ergab beispielsweise, dass ein Datenbroker namens X-Mode Geolokalisierungsdaten von Tausenden von Apps sammelte, darunter auch Muslim Pro, eine Gebets-App, die von Millionen von Muslimen weltweit genutzt wird. Vor den Geschäften mit Muslim Pro hatte X-Mode ähnliche Geolokalisierungsdaten über Verteidigungsunternehmen an das US-Militär lizenziert Obwohl Muslim Pro die Weitergabe von Daten an X-Mode eingestellt hat  und Muslim Pro behauptet, dass keine seiner Daten an das Militär weitergegeben wurden, bleibt die schreckliche Wahrheit bestehen: Die weit verbreitete Sammlung und Weitergabe von Geolokalisierungsdaten durch Unternehmen kann Nutzer*innen anfällig für Diskriminierung machen, insbesondere wenn Strafverfolgungsbehörden  und andere Regierungsbehörden regelmäßige Käufer sind.

Wenn mobile Apps von bestimmten Gruppen unterschiedlich genutzt werden, kann die Erhebung und Weitergabe personenbezogener Daten die Probleme mit den Bürgerrechten verschärfen. So verkaufte beispielsweise eine muslimische Gebets-App (Muslim Pro) Geolokalisierungsdaten über ihre Nutzer an ein Unternehmen namens X-Mode, das wiederum dem US-Militär über Rüstungsunternehmen Zugang zu diesen Daten gewährte. Obwohl Muslim Pro den Datenverkauf an X-Mode eingestellt hat, bleibt die schreckliche Wahrheit bestehen: Die weit verbreitete Sammlung und der Verkauf dieser Daten durch viele Unternehmen macht die Nutzer anfällig für Diskriminierung. Doch viel zu viele Unternehmen, die Geolokalisierungsdaten sammeln, können durch den Verkauf dieser Daten schnelles Geld verdienen. Und Strafverfolgungsbehörden und andere staatliche Stellen sind regelmäßige Käufer.

Im Jahr 2016 wurde festgestellt, dass Twitter, Facebook, Instagram und neun weitere Social-Media-Plattformen dem Softwareunternehmen Geofeedia Social-Media-Informationen und Standortdaten ihrer Nutzer zur Verfügung gestellt haben. Diese Daten wurden anschließend von Polizeidienststellen in den USA verwendet, um Personen aufzuspüren und zu identifizieren, die an Black-Lives-Matter-Protesten teilnahmen. Das FBI war ebenfalls Kunde von Geofeedia, und ein Bericht von The Intercept enthüllte, dass die Risikofirma der CIA, In-Q-Tel, in Geofeedia investiert hat. Diese Beispiele zeigen, wie die Überwachung sozialer Medien, die übermäßige Datensammlung und die Offenlegung durch digitale Plattformen weitreichende ungerechte Folgen für Schwarze Menschen haben können.

Darüber hinaus sind Menschen mit geringem Einkommen oft weniger in der Lage, das Sammeln ihrer Daten durch Unternehmen zu verhindern. So sammeln einige preisgünstige Technologien mehr Daten als andere Technologien, wie z. B. preiswerte Smartphones, die mit vorinstallierten Apps geliefert werden, die Daten preisgeben und nicht gelöscht werden können. Ebenso verlangen einige Technologieunternehmen von ihren Kunden zusätzliche Gebühren, um die Datenüberwachung zu vermeiden. So verlangte AT&T einmal 29 Dollar pro Monat von ISP-Kunden, um die Verfolgung ihres Browserverlaufs zu vermeiden. Ebenso verlangen einige Technologieunternehmen von ihren Kunden zusätzliche Gebühren für grundlegende Sicherheitsfunktionen, die sie vor Datendiebstahl schützen, wie z. B. Twitters neuer Plan, 11 Dollar pro Monat für die Zwei-Faktor-Authentifizierung zu verlangen. Leider ist der Datenschutz oft ein Luxus, den sich Menschen mit geringem Einkommen nicht leisten können.

Diskriminierende Verwendung von Daten bei der Anzeigenschaltung

Sobald personenbezogene Daten gesammelt werden, stehen hochsensible Informationen über Millionen von Menschen weitgehend zum Verkauf. Unternehmen und Regierungen nutzen sie in einer Weise, die einige schwache Gruppen in der Gesellschaft benachteiligt – und andere Personen ausgrenzt. Trotz gesetzlicher Vorschriften gegen Diskriminierung aufgrund von ethnischer Zugehörigkeit, Geschlecht und anderen Merkmalen haben viele Unternehmen Algorithmen eingesetzt, die Werbung auf genau diese Merkmale ausrichten.

Viele Plattformen und Werbetreibende nutzen personenbezogene Daten, um Werbung gezielt an bestimmte Personen zu richten und nicht an andere. Das Tailored Audiences-Tool von Twitter beispielsweise ermöglicht es Werbetreibenden, Nutzer anhand von Schlüsselwörtern, Interessen und geografischem Standort gezielt anzusprechen, während Google ein Customer Match-Tool einsetzt, mit dem Werbetreibende ihre Informationen mit den Nutzerdaten von Google kombinieren können.

Eine solche gezielte Ansprache ist oft diskriminierend. Der Federal Reserve Board stellte fest, dass „selbst Konsumenten, die sich informieren wollen, um fundierte Entscheidungen zu treffen, daran gehindert werden können, die besten Entscheidungen für sich selbst oder ihre Familien zu treffen, und stattdessen einem digitalen Redlining oder einer Lenkung ausgesetzt sein können“.

Die Unternehmen haben riskante Werbung an gefährdete Gruppen gerichtet. Tausende von Senioren wurden mit Anzeigen für Investitionsbetrug durch Subprime-Kreditgeber angesprochen. Auch politische Anzeigen wurden gezielt an ethnische Minderheiten gerichtet, was zur Unterdrückung von Wähler*innen führte. Ermöglicht wird dies durch das massenhafte Sammeln persönlicher Daten und die Zusammenstellung von Dossiers, in denen Merkmale wie die ethnische Zugehörigkeit erfasst werden. Eine gezielte Anzeige des ehemaligen Präsidenten Trump enthielt eine animierte Grafik von Hillary Clinton, mit der versucht wurde, schwarze Wähler*innen davon zu überzeugen, am Wahltag nicht zu wählen.

Personenbezogene Daten werden auch verwendet, um zu verhindern, dass bestimmte Gruppen Werbung für positive Gelegenheiten erhalten. Im Jahr 2016 deckte ProPublica beispielsweise auf, dass Facebook Werbetreibenden erlaubt, geschützte rassische Gruppen von der Anzeige ihrer Inhalte auszuschließen. In einer wissenschaftlichen Zeitschrift wurde berichtet, dass Frauen weniger Online-Anzeigen für gut bezahlte Stellen erhalten als Männer. Diskriminierende Auswirkungen können auch dann auftreten, wenn der Werbetreibende nicht die Absicht hat, zu diskriminieren. Im Jahr 2018 stellte Upturn fest, dass Facebook seine Anzeige für einen Job als Busfahrer*in an ein Publikum verteilte, das zu 80 Prozent aus Männern bestand, obwohl Upturn nicht beabsichtigte, die Anzeige auf das Geschlecht auszurichten.

Wohnungsanzeigen wurden auch auf rassendiskriminierende Weise verbreitet. Im Jahr 2019 wurde Facebook vor einem Bundesgericht verklagt, weil die Plattform eine „vorausgefüllte Liste mit demografischen Daten, Verhaltensweisen und Interessen“ für Immobilienmakler*innen und Vermieter*innen führte, um bestimmte Kaufinteressierte oder Mieter*innen von der Anzeige auszuschließen. In der Klage wird weiter behauptet, dass dies „die Schaltung von Wohnungsanzeigen ermöglichte, die Frauen, Menschen mit Behinderungen und Menschen bestimmter nationaler Herkunft ausschlossen“. Das System von Facebook hat sich seither nach einer Einigung mit dem US-Justizministerium weiterentwickelt. Bei der Bekanntgabe des Vergleichs erklärte die Regierung, dass die Algorithmen von Facebook gegen die Bundesgesetze zum fairen Wohnungsbau verstoßen.

Das weit verbreitete System der Unternehmen, die persönliche Daten sammeln und zu Geld machen, führt in vielen Fällen zu diskriminierender Werbung. Infolgedessen entgehen geschützten Gruppen wichtige Chancen auf Arbeitsplätze und Wohnraum. Um eine solche Diskriminierung bei der Auslieferung von Werbung zu vermeiden, brauchen wir Gesetze, die die anfängliche Sammlung personenbezogener Daten einschränken. 

Diskriminierende Verwendung von Daten bei der automatisierten Entscheidungsfindung

Banken und Vermieter*innen nutzen automatisierte Entscheidungsfindungssysteme, um zu entscheiden, ob sie potenziellen Kunden Dienstleistungen anbieten oder nicht. Ebenso nutzen Arbeitgebende diese Systeme bei der Auswahl von Mitarbeitenden und Hochschulen bei der Auswahl von Student*innen. Solche Systeme diskriminieren gefährdete Gruppen. Es gibt viele Lösungen für dieses Problem, einschließlich der Transparenz von Algorithmen und der strikten Durchsetzung von Gesetzen gegen organisatorische Maßnahmen, die sich ungleich auf gefährdete Gruppen auswirken.

Ein Teil des Problems besteht darin, dass automatisierte Entscheidungsfindungssysteme leichten Zugang zu dem riesigen Reservoir an persönlichen Daten haben, die Unternehmen von uns gesammelt haben und sich gegenseitig verkaufen. Diese Daten begünstigen algorithmische Verzerrungen. Ein Teil der Lösung besteht also darin, diese Reservoirs zu entleeren, indem man die Art und Weise, wie Unternehmen unsere Daten sammeln, von vornherein einschränkt.

Besondere Bedenken sind angebracht, wenn Ladengeschäfte Gesichtserkennungstechnologie einsetzen, um alle potenziellen Kunden zu überprüfen und vermeintlich unerwünschte Kunden auszuschließen. Viele Geschäfte setzen diese Technologie seit langem ein, um potenzielle Ladendiebe zu erkennen, wobei sie sich häufig auf fehleranfällige, rassistisch geprägte Strafverfolgungsdaten stützen. Madison Square Gardens wurde kürzlich dabei erwischt, wie es diese Technologie nutzte, um Mitarbeitende einer Anwaltskanzlei zu identifizieren, die die Muttergesellschaft des Veranstaltungsorts verklagt hatte. Ein Unternehmen könnte diese Art von „Feindesliste“ leicht auf Personen ausweiten, die online oder auf dem Bürgersteig gegen die diskriminierende Politik des Lokals protestieren.

Außerdem funktioniert die Gesichtserkennung allzu oft nicht – vor allem bei Schwarzen und Frauen. Die Technologie wurde eingesetzt, um die schwarze Teenagerin Lamya Robinson fälschlicherweise von einer öffentlichen Eislaufbahn in Detroit zu verweisen, nachdem sie fälschlicherweise als eine Person identifiziert wurde, die dort angeblich in eine Schlägerei geraten war. Auch für dieses Bürgerrechtsproblem gibt es eine datenschutzrechtliche Lösung: Es muss den Unternehmen untersagt werden, Gesichtsabdrücke von jedermann zu sammeln, ohne zuvor die freiwillige, informierte und ausdrückliche Zustimmung einzuholen. Dazu gehört auch die Zustimmung, das Gesicht einer Person (oder ein ähnliches Identifizierungsmerkmal wie eine Tätowierung) als Trainingsdaten für Algorithmen zu verwenden.

Diskriminierung bei Datenschutzverletzungen und Datenmissbrauch

Die Sammlung und Speicherung großer Mengen personenbezogener Daten birgt auch das Risiko, dass Unternehmensmitarbeitende die Daten auf eine Weise missbrauchen, die gegen die Bürgerrechte verstößt. So wurden beispielsweise 2014 und 2015 52 Mitarbeiter*innen von Facebook entlassen, weil sie ihren Zugang zu Nutzerdaten missbraucht hatten. Ein Ingenieur nutzte den Facebook-Speicher privater Messenger-Konversationen, Standortdaten und persönlicher Fotos, um herauszufinden, warum eine Frau, mit der er zusammen war, nicht mehr auf seine Nachrichten antwortete. Ein anderer Ingenieur nutzte die Daten von Facebook, um eine Frau zu ihrem Hotel zu verfolgen. Die übermäßige Sammlung von Daten durch das Unternehmen ermöglichte diese Belästigung.

Die übermäßige Erhebung von Daten birgt auch das Risiko von Datenverstößen, von denen einkommensschwächere Personen besonders betroffen sein können. Datendiebstahl birgt das Risiko von Identitätsdiebstahl, Ransomware-Angriffen und unerwünschtem Spam. Um diese Angriffe zu vermeiden, müssen die Opfer von Datenschutzverletzungen Zeit und Geld aufwenden, um ihre Kreditberichte einzufrieren und wieder freizugeben, ihre Kreditberichte zu überwachen und Dienstleistungen zur Verhinderung von Identitätsdiebstahl in Anspruch zu nehmen. Diese finanziellen Kosten können für einkommensschwache und ausgegrenzte Bevölkerungsgruppen oft eine größere Belastung darstellen. Darüber hinaus kann es bei instabilen Wohnverhältnissen schwieriger sein, gefährdete Personen über einen Verstoß zu informieren.

Eine wichtige Möglichkeit, diese Art von Risiken für die Bürgerrechte zu verringern, besteht darin, dass Unternehmen weniger personenbezogene Daten sammeln und speichern.

Weitergabe von Daten durch Unternehmen an Regierungen, die diese in diskriminierender Weise nutzen

Diskriminierende Regierungspraktiken können durch den Kauf personenbezogener Daten von Unternehmen angeheizt werden. Regierungen nutzen automatisierte Entscheidungsfindungssysteme, um eine Vielzahl von Entscheidungen über das Leben der Menschen zu treffen, z. B. ob die Polizei eine Person oder eine Nachbarschaft kontrollieren soll, ob das Jugendamt eine Wohnung untersuchen soll und ob ein Richter eine Person freilassen soll, während sie auf ihren Prozess wartet. Solche Systeme „automatisieren die Ungleichheit, wie Virginia Eubanks sagt. Die Regierung kauft zunehmend Daten von Unternehmen, um sie für diese Entscheidungen zu verwenden.

Seit der Oberste Gerichtshof der USA Roe v. Wade gekippt hat, ist auch die reproduktive Gesundheit zu einem immer wichtigeren Angriffspunkt für digitale Rechte geworden. So können beispielsweise Daten von Google Maps die Polizei informieren, wenn Sie nach der Adresse einer Klinik gesucht haben. Diese erweiterte Bedrohung der digitalen Rechte ist besonders gefährlich für BIPOC, Menschen mit niedrigem Einkommen, Immigranten, LGBTQ+ und andere traditionell marginalisierte Gemeinschaften sowie für die Gesundheitsdienstleistende, die diese Gemeinschaften versorgen. Wir sollten das Angebot an persönlichen Daten, die zum Beispiel Abtreibungsgegner und Kopfgeldjäger von Unternehmen erwerben können, reduzieren. Und wir sollten auch den Zugang der Polizei zu diesen Daten begrenzen.

Darüber hinaus erwirbt die Polizei Gesichtsüberwachungsdienste von Unternehmen wie Clearview, die von Milliarden von Menschen ohne deren Zustimmung Gesichtsabdrücke nehmen und dann ihre Gesichtsdatenbank nutzen, um der Polizei zu helfen, unbekannte Verdächtige auf Fotos zu identifizieren. Clearview hat beispielsweise der Polizei in Miami geholfen, eine Demonstrantin zu identifizieren.

Die polizeiliche Nutzung dieser Art von Unternehmensdatendienst ist von Natur aus gefährlich. Falsch positive Ergebnisse der Gesichtserkennung haben zur unrechtmäßigen Verhaftung von mindestens vier schwarzen Männern geführt. Im Januar 2020 setzte die Polizei in Detroit eine Gesichtserkennungssoftware ein, um Robert Williams wegen angeblichen Diebstahls von Uhren festzunehmen. Williams wurde von der Polizei 30 Stunden lang festgehalten. Nach einem langen Verhör gab die Polizei zu, dass „der Computer sich geirrt haben muss“. Ein Jahr zuvor hatte derselbe Detektiv in Detroit einen anderen Mann, Michael Oliver, verhaftet, nachdem eine Gesichtserkennungssoftware ihn fälschlicherweise als übereinstimmend identifiziert hatte. Nijeer Parks wurde des Ladendiebstahls von Snacks in New Jersey beschuldigt und nach einer falschen Identifizierung zu Unrecht verhaftet. Parks verbrachte 10 Tage im Gefängnis und fast ein Jahr mit der Anklage. Vor kurzem hat das Baton Rouge Police Department Randal Reid nach einer falschen Zuordnung zu einem Diebstahl festgenommen und fast eine Woche lang inhaftiert.

Nächste Schritte

Unternehmen, Regierungen und andere Einrichtungen nutzen personenbezogene Daten in vielerlei Hinsicht zu diskriminierenden Zwecken. Ein notwendiger Ansatz zur Lösung dieses Problems besteht darin, die Menge an Daten zu reduzieren, die diese Einrichtungen zur Diskriminierung verwenden können. Um diese Verstöße gegen die Bürgerrechte an der Wurzel zu bekämpfen, müssen wir die Art und Weise einschränken, wie Unternehmen unsere personenbezogenen Daten sammeln und auswerten.

Die EFF hat wiederholt eine solche Datenschutzgesetzgebung gefordert. Um wirksam zu sein, müssen sie eine wirksame private Durchsetzung beinhalten und „Pay for Privacy-Regelungen verbieten, die Menschen mit geringem Einkommen schaden. Die Gesetzgebung auf Bundesebene darf die Gesetzgebung der Bundesstaaten nicht aushebeln.

Related Issues