अपडेट (13 जून, 2023): मुस्लिम प्रो द्वारा प्रदान की गई अतिरिक्त जानकारी को दर्शाने के लिए उनकी पोस्ट को अपडेट किया गया है। इसका पूरा विवरण इसकी वेबसाइट के माध्यम से पहुँचा जा सकता है।

हमारा व्यक्तिगत डेटा और जिस तरह से निजी कंपनियां इसे एकत्रित करती हैं और इसका मुद्रीकरण करती हैं, वह आधुनिक जीवन में तेजी से प्रभावशाली भूमिका निभाती है। कॉर्पोरेट डेटाबेस विशाल, परस्पर जुड़े हुए और अपारदर्शी हैं। हमारे डेटा के संचलन और उपयोग को समझना मुश्किल है, और इसके बारे में पता लगाना तो दूर की बात है। फिर भी कंपनियां इसका उपयोग हमारे बारे में अनुमान लगाने के लिए करती हैं, जिससे रोजगार, आर्थिक स्थिति और अन्य अवसर खो जाते हैं। 

इस व्यापक प्रणाली के लिए एक एकीकृत विचार हाशिए पर समुदायों से व्यक्तिगत जानकारी का संग्रह है, और बाद में निगमों और सरकारी एजेंसियों द्वारा भेदभावपूर्ण उपयोग-समाज में मौजूदा संरचनात्मक असमानताओं को बढ़ाता है। डेटा निगरानी नागरिक अधिकारों की एक समस्या है, और डेटा गोपनीयता की रक्षा के लिए कानून नागरिक अधिकारों की रक्षा में मदद कर सकता है। 

डेटा का भेदभावपूर्ण संग्रह

हमारे फोन और अन्य उपकरण अत्यधिक संवेदनशील व्यक्तिगत जानकारी की एक बड़ी मात्रा को संसाधित करते हैं जिसे निगम आश्चर्यजनक मुनाफे के लिए इकट्ठा करते हैं और बेचते हैं। यह ऑनलाइन अभिनेताओं को हमारी व्यवहार संबंधी अधिक से अधिक जानकारी एकत्र करने के लिए प्रोत्साहित करता है। कुछ परिस्थितियों में, प्रत्येक माउस क्लिक और स्क्रीन स्वाइप को ट्रैक किया जाता है और फिर बेच दिया जाता है विज्ञापन तकनीक कंपनियों और उनकी सेवा करने वाले डेटा ब्रोकरों को। 

जहां विशिष्ट समूहों द्वारा मोबाइल एप्लिकेशन का अलग-अलग उपयोग किया जाता है, व्यक्तिगत डेटा का संग्रह और साझाकरण नागरिक अधिकारों की समस्याओं को बढ़ा सकता है। उदाहरण के लिए, 2020 के मदरबोर्ड की जांच में पाया गया कि X-मोड नाम के एक डेटा ब्रोकर ने हज़ारों ऐप से जियोलोकेशन डेटा इकट्ठा किया, जिसमें मुस्लिम प्रो भी शामिल है, जो दुनिया भर में लाखों मुसलमानों द्वारा इस्तेमाल किया जाने वाला एक प्रार्थना ऐप है। मुस्लिम प्रो के साथ अपने व्यवहार से पहले, X-मोड ने यू.एस. को इसी तरह के जियोलोकेशन डेटा का लाइसेंस दिया था। रक्षा कॉन्ट्रैक्टर्स  के माध्यम से सेना। हालांकि मुस्लिम प्रो ने X मोड के साथ डेटा साझा करना बंद कर दिया है, और मुस्लिम प्रो ने बनाए रखा कि इसका कोई भी डेटा सेना के साथ साझा नहीं किया गया था, भयानक सच्चाई बनी हुई है: कंपनियों द्वारा भौगोलिक स्थान डेटा का व्यापक संग्रह और साझाकरण उपयोगकर्ताओं को भेदभाव के प्रति संवेदनशील बना सकता है, खासकर जब कानून प्रवर्तन  और अन्य सरकारी एजेंसियां नियमित खरीदार हैं।

2016 में, Twitter, Facebook, Instagram, और नौ अन्य सोशल मीडिया प्लेटफ़ॉर्मों को सॉफ़्टवेयर कंपनी Geofeedia  को अपने उपयोगकर्ताओं से सोशल मीडिया जानकारी और स्थान डेटा प्रदान करने के लिए पाया गया था। बाद में इस डेटा का उपयोग पूरे अमेरिका में पुलिस विभागों द्वारा किया गया ताकि ब्लैक लाइव्स मैटर विरोध प्रदर्शनों में भाग लेने वाले व्यक्तियों को ट्रैक किया जा सके और उनकी पहचान की जा सके। FBI भी एक Geofeedia ग्राहक रही है और एक The Intercept की रिपोर्ट ने खुलासा किया कि CIA की वेंचर फर्म, In-Q-Tel, ने Geofeedia में निवेश किया है। ये उदाहरण प्रदर्शित करते हैं कि कैसे सोशल मीडिया निगरानी, अत्यधिक डेटा संग्रह, और डिजिटल प्लेटफॉर्म द्वारा प्रकटीकरण अश्वेत लोगों के लिए व्यापक असमान परिणाम हो सकते हैं।

इसके अलावा, कम आय वाले लोग अक्सर कॉर्पोरेट द्वारा उनके डेटा के संग्रह से बचने में कम सक्षम होते हैं। उदाहरण के लिए, कुछ कम कीमत वाली प्रौद्योगिकियां अन्य तकनीकों की तुलना में अधिक डेटा एकत्र करती हैं, जैसे सस्ते स्मार्टफ़ोन जो पहले से इंस्टॉल किए गए एप्लिकेशन के साथ आते हैं जो डेटा लीक करते हैं और जिन्हें हटाया नहीं जा सकता। इसी तरह, कुछ टेक ��ंपनियों को डेटा निगरानी से बचने के लिए ग्राहकों को अतिरिक्त भुगतान करने की आवश्यकता होती है, जैसे AT और T ISP ग्राहकों को अपने ब्राउज़िंग इतिहास को ट्रैक करने से बचने के लिए  प्रति माह $29  चार्ज कर रहा है। इसी तरह, कुछ टेक कंपनियों को ग्राहकों को प्राथमिक सुरक्षा सुविधाओं के लिए अतिरिक्त भुगतान करने की आवश्यकता होती है जो उन्हें डेटा चोरी से बचाती हैं, जैसे कि Twitter की  दो तरीकों से प्रमाणीकरण  के लिए प्रति माह $11 चार्ज करने की नई योजना हैं। अफसोस की बात है कि डेटा गोपनीयता अक्सर एक विलासिता है जो कम आय वाले लोग वहन नहीं कर सकते।

विज्ञापन वितरण में डेटा का भेदभावपूर्ण उपयोग 

एक बार व्यक्तिगत डेटा एकत्र हो जाने के बाद, लाखों लोगों के बारे में अत्यधिक संवेदनशील जानकारी बाद पैमाने पर बिक्री के लिए तैयार हो जाती है। निगम और सरकारें इसका उपयोग उन तरीकों से करती हैं जो समाज में कुछ कमजोर समूहों को प्रतिकूल व्यवहार के लिए लक्षित करते हैं - और दूसरों को महत्वपूर्ण अवसरों से अलग कर देते हैं। जातीयता, लिंग और अन्य विशेषताओं के आधार पर भेदभाव के खिलाफ कानूनी नियमों के बावजूद, कई निगमों ने एल्गोरिथम का उपयोग किया है जो इन्हीं विशेषताओं पर विज्ञापनों को लक्षित करते हैं। 

कई प्लेटफ़ॉर्म और विज्ञापनदाता व्यक्तिगत डेटा का उपयोग विज्ञापनों को कुछ लोगों पर लक्षित करने के लिए करते हैं और अन्य लोगों पर नहीं। उदाहरण के लिए, Twitter का उपयुक्त ऑडियंस टूल विज्ञापनदाताओं को कीवर्ड, रुचियों और भौगोलिक स्थान पर उपयोगकर्ताओं को लक्षित करने में सक्षम बनाता है, जबकि Google विज्ञापनदाताओं की जानकारी को Google के उपयोगकर्ता डेटा के साथ संयोजित करने के लिए एक ग्राहक मिलान टूल का उपयोग करता है .

इस तरह के लक्ष्यीकरण अक्सर भेदभावपूर्ण होते हैं। फ़ेडरल रिज़र्व बोर्ड ने पाया कि "यहां तक कि उपभोक्ता जो सूचित निर्णय लेने के लिए जानकारी की तलाश करते हैं, उन्हें अपने या अपने परिवार के लिए सर्वोत्तम वि��ल्प बनाने से रोका जा सकता है और इसके बजाय वे डिजिटल रेडलाइनिंग या स्टीयरिंग के अधीन हो सकते हैं"। 

कंपनियों ने कमजोर समूहों को जोखिम भरे विज्ञापन दिए हैं। हजारों वरिष्ठों को सबप्राइम उधारदाताओं द्वारा निवेश घोटालों के विज्ञापनों के साथ लक्षित किया गया है। इसी तरह, राजनीतिक विज्ञापनों को अल्पसंख्यक जातीय समूहों पर लक्षित किया गया है—जिसके कारण मतदाताओं पर दबाव हुआ है। यह व्यक्तिगत जानकारी के बड़े पैमाने पर संग्रह और जातीयता जैसी विशेषताओं की पहचान करने वाले रिपोर्ट में संकलन के माध्यम से संभव हुआ है। एक लक्षित विज्ञापन पूर्व राष्ट्रपति ट्रम्प द्वारा नियोजित में हिलेरी क्लिंटन का एक एनिमेटेड ग्राफ़िक शामिल था जिसमें अश्वेत मतदाताओं को चुनाव के दिन मतदान न करने के लिए राजी करने की कोशिश की गई थी।

व्यक्तिगत डेटा का उपयोग कुछ समूहों को सकारात्मक अवसरों के लिए विज्ञापन प्राप्त करने से रोकने के लिए भी किया जाता है। उदाहरण के लिए, 2016 में, ProPublica ने खुलासा किया कि Facebook ने विज्ञापनदाताओं को संरक्षित नस्लीय समूहों को उनका कॉन्टेंट देखने से बाहर करने की अनुमति दी थी। एक शैक्षणिक पत्रिका ने पहले बताया था कि महिलाओं को पुरुषों की तुलना में उच्च भुगतान वाली नौकरियों के लिए कम ऑनलाइन विज्ञापन प्राप्त होते हैं। भेदभावपूर्ण प्रभाव तब भी हो सकता है जब विज्ञापनदाता भेदभाव करने का इरादा नहीं रखता हो। 2018 में, Upturn ने पाया कि Facebook ने बस ड्राइवर की नौकरी के लिए अपना विज्ञापन 80 प्रतिशत पुरुषों के बीच वितरित किया, भले ही Upturn का लिंग के आधार पर विज्ञापन को चुनने का इरादा नहीं था।

आवासीय विज्ञापनों को भी नस्लीय भेदभावपूर्ण ढंग से वितरित किया गया है। 2019 में, फ़ेडरल कोर्ट में Facebook मुकदमे के अधीन था, जिसमें आरोप लगाया गया था कि प्लेटफ़ॉर्म ने रियल एस्टेट ब्रोकरों और जमींदारों के लिए "जनसांख्यिकी, व्यवहार और रुचि की पूर्व-आबादी वाली सूची" को बनाए रखा ताकि उनके विज्ञापन को कुछ खरीदारों या किराएदारों द्वारा देखने से रोका जा सके। मुकदमे में आगे आरोप लगाया गया कि इसने "आवास विज्ञापनों की नियुक्ति की अनुमति दी, जिसमें महिलाओं को, विकलांग लोगों को, और कुछ राष्ट्रीय मूल के लोगों को शामिल किया गया"। Facebook का सिस्टम यू.एस. के साथ एक समझौते के बाद से विकसित हुआ है। न्याय विभाग। निपटान की घोषणा करते हुए, सरकार ने स्पष्ट किया कि Facebook के एल्गोरिथम ने संघीय निष्��क्ष आवास कानूनों का उल्लंघन किया है।

व्‍यावसायिक व्‍यवसाय की व्‍यापक व्‍यवस्‍था व्‍यक्तिगत जानकारी का दोहन और मुद्रीकरण कई मामलों में भेदभावपूर्ण विज्ञापन वितरण की ओर ले जाती है। नतीजतन, संरक्षित समूह नौकरियों और आवास के महत्वपूर्ण अवसरों से चूक जाते हैं। विज्ञापन वितरण में इस तरह के भेदभाव से बचने के लिए, हमें ऐसे कानूनों की आवश्यकता है जो व्यक्तिगत जानकारी के प्रारंभिक संग्रह को सीमित करें।  

स्वचालित निर्णय लेने में डेटा का भेदभावपूर्ण उपयोग

बैंक और मकान मालिक संभावित ग्राहकों को सेवाएं प्रदान करने या न करने का निर्णय लेने में सहायता के लिए स्वचालित निर्णय लेने वाली प्रणालियों का उपयोग करते हैं। इसी तरह, नियोक्ता कर्मचारियों का चयन करने में सहायता के लिए इन प्रणालियों का उपयोग करते हैं, और कॉलेज छात्रों का चयन करने में सहायता के लिए उनका उपयोग करते हैं। ऐसी प्रणालियाँ कमजोर समूहों के साथ भेदभाव करती हैं। इस समस्या के कई समाधान हैं, जिनमें एल्गोरिथम पारदर्शिता और संगठनात्मक नीतियों के विरुद्ध कानूनों का कठोर प्रवर्तन शामिल है जो कमजोर समूहों को अलग तरह से प्रभावित करता है।

समस्या का एक हिस्सा यह है कि स्वचालित निर्णय लेने वाली प्रणालियों के पास व्यक्तिगत डेटा के विशाल भंडार तक आसान पहुंच होती है जिसे व्यवसायों ने हमसे एकत्र किया है और एक दूसरे को बेचते हैं। यह डेटा एल्गोरिथम पूर्वाग्रह को बढ़ावा देता है। इसलिए समाधान का एक हिस्सा सबसे पहले व्यवसायों द्वारा हमारे डेटा एकत्र करने के तरीके को सीमित करके इन भंडार को ख़ाली करना है।

विशेष रूप से चिंता व्यक्त की जाती है जब साजो- सामान के स्टोर चेहरे क�� पहचान तकनीक का उपयोग अपने सभी संभावित ग्राहकों को कथित रूप से अनचाहे ग्राहकों को अलग रखने के लिए स्क्रीन करने के लिए करते हैं। कई स्टोरों ने लंबे समय से इस तकनीक का उपयोग  संभावितसंभावना दुकानदारों का पता लगाने की कोशिश करने के लिए किया है, जो अक्सर  त्रुटि-प्रवण, नस्लीय पक्षपातपूर्ण आपराधिक न्याय डेटा पर भरोसा करते हैं। मैडिसन स्क्वायर गार्डन को हाल ही में इस तकनीक का उपयोग करते हुए एक कानूनी फर्म के कर्मचारियों को बाहर करने के लिए पकड़ा गया था जिसने स्थल की मूल कंपनी पर मुकदमा दायर किया था। व्यवसाय आसानी से इस प्रकार की "दुश्मनों की सूची" को उन लोगों तक बढ़ा सकता है, जो ऑनलाइन या फुटपाथ पर किसी स्थान की भेदभावपूर्ण नीतियों का विरोध करते हैं। 

इसके अलावा, चेहरे की पहचान बहुत बार काम नहीं करती—विशेष रूप से अश्वेत लोगों और महिलाओं के संबंध में। तकनीक का इस्तेमाल गलत तरीके से अश्वेत किशोरी लैम्या रॉबिन्सन को डेट्रायट में एक सार्वजनिक स्केटिंग रिंक से बाहर निकालने के लिए किया गया था, जिसने उसे एक ऐसे व्यक्ति के रूप में गलत पहचान दी थी जो कथित तौर पर वहां लड़ाई में शामिल हो गया था। फिर से, इस नागरिक अधिकारों की समस्या का डेटा गोपनीयता समाधान है: व्यवसायों को किसी की स्वैच्छिक, सूचित, ऑप्ट-इन सहमति प्राप्त किए बिना, किसी से भी फेसप्रिंट एकत्र करने से रोकना। इसमें एल्गोरिथम के लिए प्रशिक्षण डेटा में किसी के चेहरे (या टैटू जैसा समान पहचानकर्ता) का उपयोग करने की सहमति शामिल होनी चाहिए। 

डेटा के उल्लंघन और दुरुपयोग में भेदभाव

बड़ी में व्यक्तिगत जानकारी का संग्रह और भंडारण भी जोखिम उत्पन्न करता है कि कॉर���पोरेट कर्मचारी नागरिक अधिकारों का उल्लंघन करने वाले तरीकों से डेटा का दुरुपयोग करेंगे। उदाहरण के लिए, 2014 और 2015 में, Facebook के 52 कर्मचारियों को उपयोगकर्ता डेटा तक उनकी पहुंच का फायदा उठाने के लिए निकाल दिया गया था। एक इंजीनियर ने Facebook के निजी मैसेंजर वार्तालापों, स्थान डेटा और व्यक्तिगत तस्वीरों के भंडार का उपयोग यह जानने के लिए किया कि जिस महिला को उसने ��ेट किया था, उसने उसके संदेशों का जवाब देना क्यों बंद कर दिया। अन्य इंजीनियर ने एक महिला को उसके होटल तक ट्रैक करने के लिए फेसबुक के डेटा का इस्तेमाल किया। कंपनी के डेटा के अत्यधिक संग्रह ने इस उत्पीड़न को सक्षम किया।

अत्यधिक संग्रह से डेटा उल्लंघन का जोखिम भी पैदा होता है, जो निम्न-आय वाले लोगों पर अलग-अलग प्रभाव डाल सकता है। डेटा चोरी से  पहचान की चोरी, रैनसमवेयर हमले, और अवांछित स्पैम का अतिरिक्त जोखिम पैदा होता है। इन हमलों से बचने के लिए, उल्लंघन पीड़ितों को अपनी क्रेडिट रिपोर्ट को  फ्रीज और अनफ्रीज करने अपनी क्रेडिट रिपोर्ट की  निगरानी करने और पहचान की चोरी रोकथाम सेवाओं को प्राप्त करने के लिए समय और पैसा खर्च करना चाहिए। ये वित्तीय लागत अक्सर कम आय वाले और सीमांत समुदायों के लिए अधिक बोझिल हो सकती हैं। इसके अलावा, आवास की अस्थिरता कमजोर लोगों को चेतावनी देना कठिन बना सकती है कि उल्लंघन हुआ है।

इस प्रकार के नागरिक अधिकारों के जोखिमों को कम करने का एक महत्वपूर्ण तरीका व्यवसायों के लिए कम व्यक्तिगत डेटा एकत्र करना और संग्रहीत करना है।

निगमों द्वारा सरकार को डेटा का प्रकटीकरण, जो इसे भेदभावपूर्ण तरीकों से उपयोग करते हैं

निगमों से व्यक्तिगत डेटा की खरीद से भेदभावपूर्ण सरकारी प्रथाओं को बढ़ावा दिया जा सकता है। सरकारें लोगों के जीवन के बारे में बहुत सारे विकल्प चुनने में मदद करने के लिए स्वचालित निर्णय लेने वाली प्रणालियों का उपयोग करती हैं, जिसमें यह भी शामिल है कि क्या पुलिस को किसी व्यक्ति या पड़ोस की छानबीन करनी चाहिए, क्या बाल कल्याण अधिकारियों को एक घर की जांच करनी चाहिए, और क्या न्यायाधीश को मुकदमे की प्रतीक्षा के दौरान किसी व्यक्ति को रिहा करना चाहिए। वर्जीनिया यूबैंक्स के शब्दों में ऐसी प्रणालियाँ "असमानता को स्वचालित करती हैं"। सरकार इन निर्णयों में उपयोग के लिए व्यवसायों से अधिक से अधिक डेटा खरीदती है

इसी प्रकार, जब से यू.एस. सुप्रीम कोर्ट ने Roe v. वेड, को निरस्त किया है, डिजिटल अधिकारों के लिए प्रजनन स्वास्थ्य तेजी से हमले के लिए महत्वपूर्ण लक्ष्य बन गया है। उदाहरण के लिए, यदि आप किसी क्लिनिक का पता खोजते हैं तो Google Maps का डेटा पुलिस को सूचित कर सकता है। डिजिटल अधिकारों के लिए यह विस्तारित खतरा BIPOC, कम-आय वाले, अप्रवासी, LGBTQ+ लोगों, और अन्य परंपरागत रूप से हाशिए पर रहने वाले समुदायों और इन समुदायों की सेवा करने वाले स्वास्थ्य सेवा प्रदाताओं के लिए विशेष रूप से खतरनाक है। हमें ऐसे व्यक्तिगत डेटा की आपूर्ति को कम करना चाहिए जो पसंद विरोधी शेरिफ और व्यक्ति जो अपराधी का पीछा करते है जिसके लिए इनाम की पेशकश की जाती है ऐसे व्यवसायों से प्राप्त कर सकते हैं। और हमें इस डेटा तक पुलिस की पहुंच को सीमित भी करना चाहिए।

इसके अलावा, पुलिस Clearview जैसी कंपनियों से चेहरे की निगरानी सेवाएं प्राप्त करती है, जो अरबों लोगों से उनकी अनुमति के बिना चेहरे के निशान निकालती हैं, फिर पुलिस को तस्वीरों में अज्ञात संदिग्धों की पहचान करने में मदद करने के लिए उनके चेहरे के डिजिटल स्कैन के डेटाबेस का उपयोग करती हैं। उदाहरण के लिए, Clearview ने मियामी में पुलिस को अश्वेत जीवन के लिए एक प्रदर्शनकारी की पहचान करने में मदद की। 

इस तरह की कॉर्पोरेट डेटा सेवा का पुलिस उपयोग स्वाभाविक रूप से खतरनाक है। चेहरे की पहचान से झूठी विशेषता के कारण कम से कम चार अश्वेत पुरुषों की गलत गिरफ्तारी हुई है। जनवरी 2020 में, डेट्रायट पुलिस ने कथित तौर पर घड़ियां चुराने के लिए रॉबर्ट विलियम्स को गिरफ्तार करने के लिए चेहरे की पहचान करने वाले सॉफ़्टवेयर का इस्तेमाल किया। विलियम्स को पुलिस ने 30 घंटे तक हिरासत में रखा था। लंबी पूछताछ के बाद, पुलिस ने स्वीकार किया की "कंप्यूटर में गलती हुई होगी"। एक साल पहले, उसी डेट्रायट जासूस ने एक अन्य व्यक्ति, माइकल ओलिवर को चेहरे की पहचान करने वाले सॉफ़्टवेयर द्वारा एक मैच के रूप में गलत पहचानने के बाद गिरफ्तार किया था। निजीर पार्क्स पर न्यू जर्सी में स्नैक्स की दुकान से चोरी करने का आरोप लगाया गया था और गलत पहचान के बाद गलत तरीके से गिरफ्तार किया गया था। पार्क्स ने 10 दिन जेल में बिताए और लगभग एक साल तक उन पर आरोप लगे रहे। हाल ही में, बैटन रूज पुलिस विभाग ने चोरी के एक गलत मैच के बाद लगभग एक सप्ताह के लिए रैंडल रीड को गिरफ्तार करके जेल में डाल दिया

अगले कदम

निगम, सरकारें और अन्य कई प्रकार के भेदभावपूर्ण तरीकों से व्यक्तिगत डेटा का उपयोग करते हैं। इस समस्या को हल करने के लिए एक आवश्यक दृष्टिकोण डेटा की मात्रा को कम करना है जिसका उपयोग ये संस्थाएँ भेदभाव करने के लिए कर सकती हैं। इन नागरिक अधिकारों के दुरुपयोग का उनके स्रोत पर विरोध करने के लिए, हमें उन तरीकों को सीमित करना चाहिए जिनसे व्यवसाय हमारे व्यक्तिगत डेटा को एकत्र और इकट्ठा करते हैं। 

EFF ने बार-बार इस तरह के गोपनीयता कानून की मांग की है। प्रभावी होने के लिए, इसमें असरदार निजी  प्रवर्तन शामिल होना चाहिए, और "गोपनीयता के लिए भुगतान" योजनाओं को प्रतिबंधित करना चाहिए जो निम्न-आय वाले लोगों को चोट पहुँचाते हैं। संघीय स्तर पर कानून को राज्य के कानून का उल्लंघन नहीं करना चाहिएl

Related Issues