नया प्रोफाइलिंग सॉफ्टवेयर गोपनीयता की चिंता क्यों बढ़ाता है

विषयसूची:

नया प्रोफाइलिंग सॉफ्टवेयर गोपनीयता की चिंता क्यों बढ़ाता है
नया प्रोफाइलिंग सॉफ्टवेयर गोपनीयता की चिंता क्यों बढ़ाता है
Anonim

मुख्य तथ्य

  • लोगों की प्रोफाइल बनाने के लिए आर्टिफिशियल इंटेलिजेंस का इस्तेमाल करने वाला सॉफ्टवेयर निजता की चिंता बढ़ा रहा है।
  • क्रायफ आर्टिफिशियल इंटेलिजेंस के साथ व्यवहार विश्लेषण तकनीकों को जोड़ती है।
  • चीनी कंपनी अलीबाबा को हाल ही में यह कहकर आलोचना का सामना करना पड़ा था कि उसका सॉफ्टवेयर उइगरों और अन्य जातीय अल्पसंख्यकों का पता लगा सकता है।
Image
Image

आर्टिफिशियल इंटेलिजेंस द्वारा संचालित नया सॉफ़्टवेयर जिसका उद्देश्य नियोक्ताओं के लिए अपने कर्मचारियों को प्रोफाइल करना है, गोपनीयता संबंधी चिंताओं को बढ़ा रहा है।

क्राईफ नामक एक नया सॉफ्टवेयर प्लेटफॉर्म कृत्रिम बुद्धिमत्ता के साथ व्यवहार विश्लेषण तकनीकों को जोड़ता है। डेवलपर का दावा है कि मिनटों के सुराग का विश्लेषण करके, सॉफ्टवेयर साक्षात्कार के दौरान लोगों के इरादों को प्रकट कर सकता है। लेकिन कुछ पर्यवेक्षकों का कहना है कि क्रायफ और व्यवहार का विश्लेषण करने वाले अन्य प्रकार के सॉफ़्टवेयर गोपनीयता पर आक्रमण कर सकते हैं।

"कंपनियां प्रोफाइलिंग के लिए एआई पर तेजी से भरोसा करती हैं," एआई विशेषज्ञ वैक्लेव विंकेल ने एक ईमेल साक्षात्कार में कहा। "लेकिन यहां तक कि जो लोग इन एल्गोरिदम को कोड करते हैं, यहां तक कि एक ग्राहक सहायता व्यक्ति जो आप फोन पर पहुंचते हैं, आपको यह नहीं बता सकते कि वे कोई भी सिफारिश क्यों करते हैं।"

शब्दों से अधिक

क्रायफ को एक स्विस कंपनी द्वारा विकसित किया गया था जिसके कर्मचारियों को प्रोफाइलिंग तकनीकों में एफबीआई द्वारा प्रशिक्षित किया गया था। "क्रायफ़, सभी पारस्परिक संचार में, न केवल शब्दों को सुनता है, बल्कि भावनाओं, सूक्ष्म-अभिव्यक्तियों और सभी इशारों जैसे मानव द्वारा उत्सर्जित अन्य संकेतों की पहचान करता है," क्राईफ़ के संस्थापक कैरोलिन माटेउची ने एक ईमेल साक्षात्कार में कहा।

"नियुक्ति के दौरान, उदाहरण के लिए, यह हमें अपने वार्ताकार के वास्तविक व्यक्तित्व की तलाश करने की अनुमति देता है।"

Matteucci ने कहा कि उपयोगकर्ताओं की गोपनीयता सुरक्षित है क्योंकि कंपनी इस बारे में पारदर्शी है कि उसका सॉफ़्टवेयर कैसे काम करता है। "उपयोगकर्ता, मंच का उपयोग करने में सक्षम होने से पहले, सामान्य शर्तों को स्वीकार करना चाहिए," उसने कहा।

"यह वहां निर्दिष्ट है कि उपयोगकर्ता किसी भी स्थिति में वार्ताकार की लिखित सहमति प्राप्त किए बिना विश्लेषण के लिए साक्षात्कार प्रस्तुत नहीं कर सकता है।"

क्रायफ एकमात्र ऐसा एआई-पावर्ड सॉफ्टवेयर नहीं है जो मानव व्यवहार का विश्लेषण करता है। ह्यूमैनटिक भी है, जो उपभोक्ता व्यवहार का विश्लेषण करने का दावा करता है। कंपनी की वेबसाइट के अनुसार, "Humantic की पथ-प्रदर्शक तकनीक हर किसी के व्यवहार की भविष्यवाणी करती है, जिसके लिए उन्हें कभी भी व्यक्तित्व परीक्षण की आवश्यकता नहीं होती है।"

Image
Image

कंपनी एआई का उपयोग आवेदकों के मनोवैज्ञानिक प्रोफाइल बनाने के लिए उन शब्दों के आधार पर करने का दावा करती है जो वे रिज्यूमे, कवर लेटर, लिंक्डइन प्रोफाइल और उनके द्वारा सबमिट किए गए टेक्स्ट के किसी अन्य भाग में उपयोग करते हैं।

व्यवहार सॉफ्टवेयर अतीत में कानूनी चुनौतियों का सामना कर चुका है। 2019 में, ब्लूमबर्ग लॉ ने बताया कि समान रोजगार अवसर आयोग (ईईओसी) ने एल्गोरिथम-सहायता प्राप्त, एचआर-संबंधित निर्णयों के कारण कथित गैरकानूनी भेदभाव के मामलों को देखा।

"यह सब काम करना होगा क्योंकि भर्ती का भविष्य एआई है," वकील ब्रैडफोर्ड न्यूमैन ने ब्लूमबर्ग को बताया।

कुछ पर्यवेक्षक व्यवहार ट्रैकिंग सॉफ़्टवेयर का उपयोग करने वाली कंपनियों के साथ समस्या उठाते हैं क्योंकि यह पर्याप्त सटीक नहीं है। एक साक्षात्कार में, पेशेवर सेवा फर्म ईवाई में वैश्विक कृत्रिम बुद्धिमत्ता नेता, निगेल डफी ने इन्फॉर्मेशन वीक को बताया कि वह ऐसे सॉफ़्टवेयर से परेशान हैं जो सोशल मीडिया क्विज़ का उपयोग करता है और पहचान को प्रभावित करता है।

"मुझे लगता है कि प्रभाव का पता लगाने की क्षमता पर कुछ वास्तव में सम्मोहक साहित्य है, लेकिन मेरी समझ यह है कि जिस तरह से अक्सर लागू किया जाता है वह बहुत ही भोला है," उन्होंने कहा।

"लोग अनुमान लगा रहे हैं कि विज्ञान वास्तव में समर्थन नहीं करता है [जैसे] यह तय करना कि कोई संभावित रूप से अच्छा कर्मचारी है क्योंकि वे बहुत मुस्कुरा रहे हैं या यह निर्णय कर रहे हैं कि कोई आपके उत्पादों को पसंद करता है क्योंकि वे बहुत मुस्कुरा रहे हैं ।"

चीनी कंपनियां कथित तौर पर अल्पसंख्यकों को प्रोफाइल करती हैं

कुछ मानवाधिकार समूहों का कहना है कि व्यवहार ट्रैकिंग के और भी भयावह उद्देश्य हो सकते हैं। चीन में, ऑनलाइन मार्केटप्लेस की दिग्गज कंपनी अलीबाबा ने हाल ही में उस समय हलचल मचा दी थी जब कथित तौर पर दावा किया गया था कि उसका सॉफ्टवेयर उइगरों और अन्य जातीय अल्पसंख्यकों का पता लगा सकता है।

द न्यूयॉर्क टाइम्स ने बताया कि कंपनी के क्लाउड कंप्यूटिंग व्यवसाय में सॉफ्टवेयर था जो छवियों और वीडियो को स्कैन करेगा।

लेकिन इन एल्गोरिदम को कोड करने वाले इंसान भी आपको यह नहीं बता सकते कि वे कोई सिफारिश क्यों करते हैं।

द वाशिंगटन पोस्ट ने हाल ही में यह भी बताया कि एक अन्य चीनी टेक कंपनी हुआवेई ने ऐसे सॉफ़्टवेयर का परीक्षण किया था जो कानून प्रवर्तन को सतर्क कर सकता था जब उसके निगरानी कैमरों ने उइगर चेहरों का पता लगाया था।

हुआवेई द्वारा 2018 पेटेंट आवेदन में कथित तौर पर दावा किया गया है कि चेहरे की पहचान तकनीक में "पैदल यात्री विशेषताओं की पहचान बहुत महत्वपूर्ण है"।"लक्षित वस्तु के गुण लिंग (पुरुष, महिला), आयु (जैसे किशोर, मध्यम आयु वर्ग, वृद्ध) [या] जाति (हान, उइघुर) हो सकते हैं," आवेदन ने कहा।

हुवेई के एक प्रवक्ता ने सीएनएन बिजनेस को बताया कि जातीयता पहचान सुविधा को "कभी भी एप्लिकेशन का हिस्सा नहीं बनना चाहिए।"

बड़ी मात्रा में डेटा को छाँटने के लिए कृत्रिम बुद्धिमत्ता के बढ़ते उपयोग से निजता की चिंता उठना लाजमी है। अगली बार जब आप नौकरी के लिए इंटरव्यू के लिए जाते हैं, तो आप शायद कभी नहीं जान पाएंगे कि कौन या क्या आपका विश्लेषण कर रहा है।

सिफारिश की: