मुख्य तथ्य
- ज़ूम ने कथित तौर पर कहा है कि यह उपयोगकर्ता की भावना या जुड़ाव के स्तर का मूल्यांकन करने के लिए AI का उपयोग करेगा।
- मानव अधिकार समूह गोपनीयता और डेटा सुरक्षा चिंताओं के कारण ज़ूम को अपनी योजना पर पुनर्विचार करने के लिए कह रहे हैं।
- कुछ कंपनियां साक्षात्कार के दौरान भावनाओं का पता लगाने वाले सॉफ़्टवेयर का उपयोग यह आकलन करने के लिए भी करती हैं कि उपयोगकर्ता ध्यान दे रहा है या नहीं।
मानवीय भावनाओं पर नजर रखने के लिए आर्टिफिशियल इंटेलिजेंस (एआई) का बढ़ता इस्तेमाल निजता की चिंता पैदा कर रहा है।
मानवाधिकार संगठन जूम को अपने वीडियो कॉन्फ्रेंसिंग सॉफ्टवेयर में इमोशन-एनालिसिस एआई को पेश करने की अपनी योजना को धीमा करने के लिए कह रहे हैं। कंपनी ने कथित तौर पर कहा है कि वह उपयोगकर्ता की भावना या जुड़ाव के स्तर का मूल्यांकन करने के लिए AI का उपयोग करेगी।
"विशेषज्ञ मानते हैं कि भावना विश्लेषण काम नहीं करता है," एसीएलयू सहित मानवाधिकार समूहों के संघ ने ज़ूम को एक पत्र में लिखा है। "चेहरे के भाव अक्सर नीचे की भावनाओं से अलग हो जाते हैं, और शोध में पाया गया है कि मनुष्य भी कुछ समय दूसरों की भावनाओं को सही ढंग से पढ़ या माप नहीं सकते हैं। इस उपकरण को विकसित करने से छद्म विज्ञान में विश्वास जुड़ जाता है और आपकी प्रतिष्ठा दांव पर लग जाती है।"
जूम ने टिप्पणी के लिए लाइफवायर के अनुरोध का तुरंत जवाब नहीं दिया।
अपनी भावनाओं पर नज़र रखना
प्रोटोकॉल लेख के अनुसार, क्यू फॉर सेल्स नाम का जूम मॉनिटरिंग सिस्टम यूजर्स के टॉक-टाइम रेशियो, रिस्पॉन्स टाइम लैग और बार-बार होने वाले स्पीकर में बदलाव की जांच करेगा ताकि यह पता लगाया जा सके कि व्यक्ति कितना व्यस्त है।ज़ूम इस डेटा का उपयोग शून्य और 100 के बीच स्कोर निर्दिष्ट करने के लिए करेगा, जिसमें उच्च स्कोर उच्च जुड़ाव या भावना को दर्शाता है।
मानव अधिकार समूहों का दावा है कि सॉफ्टवेयर विकलांग लोगों या कुछ जातियों के साथ भेदभाव कर सकता है, यह मानकर कि हर कोई एक ही चेहरे के भाव, आवाज के पैटर्न और संवाद करने के लिए शरीर की भाषा का उपयोग करता है। समूह यह भी सुझाव देते हैं कि सॉफ़्टवेयर डेटा सुरक्षा जोखिम हो सकता है।
पत्र के अनुसार गहन व्यक्तिगत डेटा का संचयन इस तकनीक को लागू करने वाली किसी भी संस्था को सरकारी अधिकारियों और दुर्भावनापूर्ण हैकरों की जासूसी करने का लक्ष्य बना सकता है।
न्यूयॉर्क विश्वविद्यालय में कंप्यूटर विज्ञान और इंजीनियरिंग की प्रोफेसर जूलिया स्टोयानोविच ने एक ईमेल साक्षात्कार में लाइफवायर को बताया कि वह भावनाओं का पता लगाने के पीछे के दावों को लेकर संशय में हैं।
"मैं नहीं देखता कि इस तरह की तकनीक कैसे काम कर सकती है- लोगों की भावनात्मक अभिव्यक्ति बहुत ही व्यक्तिगत, बहुत सांस्कृतिक रूप से निर्भर और बहुत ही संदर्भ-विशिष्ट है," स्टॉयनोविच ने कहा।"लेकिन, शायद इससे भी महत्वपूर्ण बात यह है कि मैं नहीं देखता कि हम क्यों चाहते हैं कि ये उपकरण काम करें। दूसरे शब्दों में, अगर वे अच्छी तरह से काम करते हैं तो हम और भी अधिक परेशानी में होंगे। लेकिन शायद जोखिमों के बारे में सोचने से पहले, हमें चाहिए पूछो-ऐसी तकनीक के संभावित लाभ क्या हैं?"
जूम इमोशन-डिटेक्टिंग सॉफ्टवेयर का इस्तेमाल करने वाली अकेली कंपनी नहीं है। एक गोपनीयता और सुरक्षा परामर्श कंपनी, कुमा एलएलसी में गोपनीयता के वरिष्ठ निदेशक थियो विल्स ने ईमेल के माध्यम से लाइफवायर को बताया कि साक्षात्कार के दौरान भावनाओं का पता लगाने के लिए सॉफ़्टवेयर का उपयोग यह आकलन करने के लिए किया जाता है कि उपयोगकर्ता ध्यान दे रहा है या नहीं। इसे परिवहन उद्योग में भी चलाया जा रहा है ताकि यह पता लगाया जा सके कि ड्राइवर नींद में हैं या नहीं, वीडियो प्लेटफॉर्म पर रुचि और दर्जी सिफारिशों को मापने के लिए, और शैक्षिक ट्यूटोरियल में यह निर्धारित करने के लिए कि कोई विशेष शिक्षण पद्धति आकर्षक है या नहीं।
विल्स ने तर्क दिया कि भावना-निगरानी सॉफ्टवेयर के आसपास का विवाद गोपनीयता की तुलना में डेटा नैतिकता का सवाल है। उसने कहा कि यह वास्तविक दुनिया के निर्णय लेने वाली प्रणाली के बारे में है।
"इस तकनीक के साथ, अब आप यह मान रहे हैं कि मेरे चेहरे पर एक विशेष अभिव्यक्ति है, लेकिन एक अभिव्यक्ति के पीछे की प्रेरणा सामाजिक या सांस्कृतिक परवरिश, पारिवारिक व्यवहार, पिछले अनुभव या घबराहट जैसी चीजों के कारण व्यापक रूप से भिन्न होती है। पल में," विल्स ने कहा। "एल्गोरिदम को एक धारणा पर आधारित करना स्वाभाविक रूप से त्रुटिपूर्ण और संभावित रूप से भेदभावपूर्ण है। एल्गोरिदम पर आधारित आबादी में कई आबादी का प्रतिनिधित्व नहीं किया जाता है, और इसका उपयोग करने से पहले उचित प्रतिनिधित्व को प्राथमिकता दी जानी चाहिए।"
व्यावहारिक विचार
इमोशन ट्रैकिंग सॉफ्टवेयर द्वारा उठाई गई समस्याएं व्यावहारिक होने के साथ-साथ सैद्धांतिक भी हो सकती हैं। एआई-संचालित ऐप Ferret.ai के सह-संस्थापक मैट हेसी ने एक ईमेल में लाइफवायर को बताया कि उपयोगकर्ताओं को यह पूछने की ज़रूरत है कि चेहरों का विश्लेषण कहाँ किया जा रहा है और कौन सा डेटा संग्रहीत किया जा रहा है। क्या अध्ययन कॉल रिकॉर्डिंग पर किया जा रहा है, क्लाउड में संसाधित किया जा रहा है, या स्थानीय डिवाइस पर?
साथ ही, हेसी ने पूछा, जैसा कि एल्गोरिदम सीखता है, यह किसी व्यक्ति के चेहरे या आंदोलनों के बारे में कौन सा डेटा एकत्र करता है जिसे संभावित रूप से एल्गोरिदम से अलग किया जा सकता है और किसी के बायोमेट्रिक्स को फिर से बनाने के लिए उपयोग किया जा सकता है? क्या कंपनी एल्गोरिदम की सीखों को सत्यापित या मान्य करने के लिए स्नैपशॉट संग्रहीत कर रही है, और क्या उपयोगकर्ता को इस नए व्युत्पन्न डेटा या संग्रहीत छवियों के बारे में सूचित किया जाता है जो संभावित रूप से उनके कॉल से एकत्र किए जा रहे हैं?
"ये सभी समस्याएं हैं जिन्हें कई कंपनियों ने हल किया है, लेकिन ऐसी कंपनियां भी हैं जो घोटाले से हिल गई हैं जब यह पता चला कि उन्होंने इसे सही तरीके से नहीं किया है," हेसी ने कहा। "फेसबुक एक कंपनी का सबसे महत्वपूर्ण मामला है जिसने उपयोगकर्ता गोपनीयता के बारे में चिंताओं पर अपने चेहरे की पहचान मंच को वापस ले लिया है। मूल कंपनी मेटा अब बायोमेट्रिक डेटा के आसपास के गोपनीयता कानूनों पर इलिनोइस और टेक्सास जैसे कुछ न्यायालयों में Instagram से एआर सुविधाओं को खींच रही है।"