मुख्य तथ्य
- ट्विटर अपने छवि पूर्वावलोकन सॉफ़्टवेयर में उपयोगकर्ताओं द्वारा नस्लीय पूर्वाग्रह को दूर करने की उम्मीद कर रहा है।
- तकनीकी दिग्गज की कॉल-आउट सांस्कृतिक गणना हो सकती है जिसे उद्योग को विविधता के मुद्दों को संबोधित करने की आवश्यकता है।
- टेक की विविधता की कमी इसकी तकनीकी प्रगति की प्रभावकारिता को प्रभावित कर रही है।
ट्विटर अपने पिक्चर-क्रॉपिंग एल्गोरिथम की जांच शुरू करने के लिए तैयार है, क्योंकि यह एक ट्रेंडिंग टॉपिक बन गया है, जिसने टेक उद्योग में विविधता के मुद्दों पर अधिक बातचीत को प्रेरित किया।
उपयोगकर्ताओं द्वारा इसके छवि पूर्वावलोकन एल्गोरिदम में स्पष्ट नस्लीय पूर्वाग्रह की खोज के बाद सोशल मीडिया बाजीगरी ने सुर्खियां बटोरीं। यह खोज तब हुई जब ट्विटर उपयोगकर्ता कॉलिन मैडलैंड ने अपने काले सहयोगियों को पहचानने में जूम की विफलता को कॉल करने के लिए मंच का उपयोग किया, जिन्होंने ग्रीन स्क्रीन तकनीक का उपयोग किया था, लेकिन विडंबना के एक भव्य शो में, उन्होंने पाया कि ट्विटर के इमेज-क्रॉपिंग एल्गोरिदम ने समान व्यवहार किया और काले चेहरों को चित्रित किया।
निश्चित रूप से, यह किसी भी अल्पसंख्यक के लिए एक बहुत बड़ा मुद्दा है, लेकिन मुझे लगता है कि एक बहुत व्यापक मुद्दा भी है।
अन्य उपयोगकर्ताओं ने वायरल ट्वीट्स की एक श्रृंखला को बढ़ावा देने की प्रवृत्ति में शामिल हो गए, जिसमें एल्गोरिदम को लगातार सफेद और हल्के-चमड़ी वाले चेहरों को प्राथमिकता दी गई, जिसमें लोगों से लेकर कार्टून चरित्र और यहां तक कि कुत्ते भी शामिल थे। यह विफलता तकनीकी उद्योग में एक बड़े सांस्कृतिक आंदोलन का संकेत है जो लगातार अल्पसंख्यक समूहों के लिए जिम्मेदार होने में विफल रहा है, जो तकनीकी पक्ष में फैल गया है।
"यह अल्पसंख्यकों को भयानक महसूस कराता है, जैसे वे महत्वपूर्ण नहीं हैं, और इसका उपयोग अन्य चीजों के लिए किया जा सकता है जो लाइन के नीचे और अधिक गंभीर नुकसान पहुंचा सकते हैं," एरिक लर्नड-मिलर, विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर मैसाचुसेट्स के, एक फोन साक्षात्कार में कहा।"एक बार जब आप यह तय कर लेते हैं कि सॉफ्टवेयर का एक टुकड़ा किस लिए इस्तेमाल किया जा सकता है और इससे होने वाले सभी नुकसान हो सकते हैं, तो हम उन तरीकों के बारे में बात करना शुरू करते हैं जो होने की संभावना को कम करते हैं।"
टाइमलाइन पर कैनरी
ट्विटर ट्वीट्स में एम्बेड की गई छवियों को स्वचालित रूप से क्रॉप करने के लिए तंत्रिका नेटवर्क का उपयोग करता है। एल्गोरिदम को पूर्वावलोकन के लिए चेहरों का पता लगाना है, लेकिन ऐसा लगता है कि इसमें एक सफेद पूर्वाग्रह है। कंपनी की प्रवक्ता लिज़ केली ने सभी चिंताओं पर प्रतिक्रिया देते हुए ट्वीट किया।
केली ने ट्वीट किया, "इसे उठाने वाले सभी लोगों के लिए धन्यवाद। हमने मॉडल को शिपिंग करने से पहले पूर्वाग्रह के लिए परीक्षण किया और हमारे परीक्षण में नस्लीय या लिंग पूर्वाग्रह का सबूत नहीं मिला, लेकिन यह स्पष्ट है कि हमें और अधिक विश्लेषण मिला है करते हैं। हम अपने काम को ओपन सोर्स करेंगे ताकि दूसरे उसकी समीक्षा कर सकें और उसे दोहरा सकें।"
श्वेत पत्र "फेशियल रिकॉग्निशन टेक्नोलॉजीज इन द वाइल्ड: ए कॉल फॉर ए फेडरल ऑफिस" के सह-लेखक, लर्नेड-मिलर फेस-आधारित एआई लर्निंग सॉफ्टवेयर की ज्यादतियों पर एक प्रमुख शोधकर्ता हैं।वह वर्षों से इमेज-लर्निंग सॉफ़्टवेयर के संभावित नकारात्मक प्रभाव पर चर्चा कर रहे हैं, और एक वास्तविकता बनाने के महत्व के बारे में बात की है जहां इन पूर्वाग्रहों को उनकी सर्वोत्तम क्षमता के लिए कम किया जाता है।
चेहरे की पहचान तकनीक के लिए कई एल्गोरिदम डेटा के लिए संदर्भ सेट का उपयोग करते हैं, जिन्हें अक्सर प्रशिक्षण सेट के रूप में जाना जाता है, जो इमेज-लर्निंग सॉफ़्टवेयर के व्यवहार को ठीक करने के लिए उपयोग की जाने वाली छवियों का एक संग्रह है। यह अंततः एआई को चेहरों की एक विस्तृत श्रृंखला को आसानी से पहचानने की अनुमति देता है। हालांकि, इन संदर्भ सेटों में एक विविध पूल की कमी हो सकती है, जिससे ट्विटर टीम द्वारा अनुभव की जाने वाली समस्याएं हो सकती हैं।
"निश्चित रूप से, यह किसी भी अल्पसंख्यक के लिए एक बहुत बड़ा मुद्दा है, लेकिन मुझे लगता है कि एक बहुत व्यापक मुद्दा भी है," लर्नड-मिलर ने कहा। "यह तकनीकी क्षेत्र में विविधता की कमी और दुरुपयोग और दुरुपयोग के लिए प्रवण इस तरह के शक्तिशाली सॉफ़्टवेयर के उचित उपयोग को दिखाने के लिए एक केंद्रीकृत, नियामक बल की आवश्यकता से संबंधित है।"
तकनीक में विविधता की कमी
चॉपिंग ब्लॉक पर ट्विटर नवीनतम टेक कंपनी हो सकती है, लेकिन यह एक नई समस्या से बहुत दूर है। तकनीकी क्षेत्र मुख्य रूप से सफेद, सदा पुरुष-प्रधान क्षेत्र बना हुआ है और शोधकर्ताओं ने पाया है कि विविधता की कमी विकसित सॉफ्टवेयर में प्रणालीगत, ऐतिहासिक असंतुलन की प्रतिकृति का कारण बनती है।
न्यूयॉर्क यूनिवर्सिटी के एआई नाउ इंस्टीट्यूट की 2019 की रिपोर्ट में, शोधकर्ताओं ने पाया कि देश की शीर्ष टेक फर्मों में अश्वेत लोग 6 प्रतिशत से भी कम कार्यबल बनाते हैं। इसी तरह, क्षेत्र में काम करने वालों में महिलाओं की संख्या केवल 26 प्रतिशत है-यह आंकड़ा 1960 में उनके हिस्से से कम है।
यह अल्पसंख्यकों को भयानक महसूस कराता है, जैसे वे महत्वपूर्ण नहीं हैं, और इसका उपयोग अन्य चीजों के लिए किया जा सकता है जो लाइन के नीचे और अधिक गंभीर नुकसान पहुंचा सकते हैं।
सतह पर, ये प्रतिनिधित्व संबंधी मुद्दे सांसारिक लग सकते हैं, लेकिन व्यवहार में, इससे होने वाला नुकसान गहरा हो सकता है। एआई नाउ इंस्टीट्यूट की रिपोर्ट के शोधकर्ताओं ने सुझाव दिया है कि यह यथोचित रूप से गैर-श्वेत और गैर-पुरुष आबादी के लिए खाते में विफल होने वाले सॉफ़्टवेयर के मुद्दों से संबंधित है।चाहे वह इन्फ्रारेड साबुन डिस्पेंसर हो जो गहरे रंग की त्वचा का पता लगाने में विफल हो या अमेज़ॅन का एआई सॉफ़्टवेयर महिला चेहरों को उनके पुरुष समकक्षों से अलग करने में विफल हो, तकनीकी उद्योग में विविधता को संबोधित करने में विफलता एक विविध दुनिया से निपटने के लिए प्रौद्योगिकी की विफलता की ओर ले जाती है।
"ऐसे बहुत से लोग हैं जिन्होंने मुद्दों के बारे में नहीं सोचा है और वास्तव में यह नहीं जानते हैं कि ये चीजें कैसे नुकसान पहुंचा सकती हैं और ये नुकसान कितने महत्वपूर्ण हैं," लर्न-मिलर ने एआई इमेज लर्निंग के बारे में सुझाव दिया। "उम्मीद है कि लोगों की संख्या घट रही है!"