ट्विटर एल्गोरिथम का नस्लीय पूर्वाग्रह बड़ी तकनीकी समस्या की ओर इशारा करता है

विषयसूची:

ट्विटर एल्गोरिथम का नस्लीय पूर्वाग्रह बड़ी तकनीकी समस्या की ओर इशारा करता है
ट्विटर एल्गोरिथम का नस्लीय पूर्वाग्रह बड़ी तकनीकी समस्या की ओर इशारा करता है
Anonim

मुख्य तथ्य

  • ट्विटर अपने छवि पूर्वावलोकन सॉफ़्टवेयर में उपयोगकर्ताओं द्वारा नस्लीय पूर्वाग्रह को दूर करने की उम्मीद कर रहा है।
  • तकनीकी दिग्गज की कॉल-आउट सांस्कृतिक गणना हो सकती है जिसे उद्योग को विविधता के मुद्दों को संबोधित करने की आवश्यकता है।
  • टेक की विविधता की कमी इसकी तकनीकी प्रगति की प्रभावकारिता को प्रभावित कर रही है।
Image
Image

ट्विटर अपने पिक्चर-क्रॉपिंग एल्गोरिथम की जांच शुरू करने के लिए तैयार है, क्योंकि यह एक ट्रेंडिंग टॉपिक बन गया है, जिसने टेक उद्योग में विविधता के मुद्दों पर अधिक बातचीत को प्रेरित किया।

उपयोगकर्ताओं द्वारा इसके छवि पूर्वावलोकन एल्गोरिदम में स्पष्ट नस्लीय पूर्वाग्रह की खोज के बाद सोशल मीडिया बाजीगरी ने सुर्खियां बटोरीं। यह खोज तब हुई जब ट्विटर उपयोगकर्ता कॉलिन मैडलैंड ने अपने काले सहयोगियों को पहचानने में जूम की विफलता को कॉल करने के लिए मंच का उपयोग किया, जिन्होंने ग्रीन स्क्रीन तकनीक का उपयोग किया था, लेकिन विडंबना के एक भव्य शो में, उन्होंने पाया कि ट्विटर के इमेज-क्रॉपिंग एल्गोरिदम ने समान व्यवहार किया और काले चेहरों को चित्रित किया।

निश्चित रूप से, यह किसी भी अल्पसंख्यक के लिए एक बहुत बड़ा मुद्दा है, लेकिन मुझे लगता है कि एक बहुत व्यापक मुद्दा भी है।

अन्य उपयोगकर्ताओं ने वायरल ट्वीट्स की एक श्रृंखला को बढ़ावा देने की प्रवृत्ति में शामिल हो गए, जिसमें एल्गोरिदम को लगातार सफेद और हल्के-चमड़ी वाले चेहरों को प्राथमिकता दी गई, जिसमें लोगों से लेकर कार्टून चरित्र और यहां तक कि कुत्ते भी शामिल थे। यह विफलता तकनीकी उद्योग में एक बड़े सांस्कृतिक आंदोलन का संकेत है जो लगातार अल्पसंख्यक समूहों के लिए जिम्मेदार होने में विफल रहा है, जो तकनीकी पक्ष में फैल गया है।

"यह अल्पसंख्यकों को भयानक महसूस कराता है, जैसे वे महत्वपूर्ण नहीं हैं, और इसका उपयोग अन्य चीजों के लिए किया जा सकता है जो लाइन के नीचे और अधिक गंभीर नुकसान पहुंचा सकते हैं," एरिक लर्नड-मिलर, विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर मैसाचुसेट्स के, एक फोन साक्षात्कार में कहा।"एक बार जब आप यह तय कर लेते हैं कि सॉफ्टवेयर का एक टुकड़ा किस लिए इस्तेमाल किया जा सकता है और इससे होने वाले सभी नुकसान हो सकते हैं, तो हम उन तरीकों के बारे में बात करना शुरू करते हैं जो होने की संभावना को कम करते हैं।"

टाइमलाइन पर कैनरी

ट्विटर ट्वीट्स में एम्बेड की गई छवियों को स्वचालित रूप से क्रॉप करने के लिए तंत्रिका नेटवर्क का उपयोग करता है। एल्गोरिदम को पूर्वावलोकन के लिए चेहरों का पता लगाना है, लेकिन ऐसा लगता है कि इसमें एक सफेद पूर्वाग्रह है। कंपनी की प्रवक्ता लिज़ केली ने सभी चिंताओं पर प्रतिक्रिया देते हुए ट्वीट किया।

केली ने ट्वीट किया, "इसे उठाने वाले सभी लोगों के लिए धन्यवाद। हमने मॉडल को शिपिंग करने से पहले पूर्वाग्रह के लिए परीक्षण किया और हमारे परीक्षण में नस्लीय या लिंग पूर्वाग्रह का सबूत नहीं मिला, लेकिन यह स्पष्ट है कि हमें और अधिक विश्लेषण मिला है करते हैं। हम अपने काम को ओपन सोर्स करेंगे ताकि दूसरे उसकी समीक्षा कर सकें और उसे दोहरा सकें।"

श्वेत पत्र "फेशियल रिकॉग्निशन टेक्नोलॉजीज इन द वाइल्ड: ए कॉल फॉर ए फेडरल ऑफिस" के सह-लेखक, लर्नेड-मिलर फेस-आधारित एआई लर्निंग सॉफ्टवेयर की ज्यादतियों पर एक प्रमुख शोधकर्ता हैं।वह वर्षों से इमेज-लर्निंग सॉफ़्टवेयर के संभावित नकारात्मक प्रभाव पर चर्चा कर रहे हैं, और एक वास्तविकता बनाने के महत्व के बारे में बात की है जहां इन पूर्वाग्रहों को उनकी सर्वोत्तम क्षमता के लिए कम किया जाता है।

चेहरे की पहचान तकनीक के लिए कई एल्गोरिदम डेटा के लिए संदर्भ सेट का उपयोग करते हैं, जिन्हें अक्सर प्रशिक्षण सेट के रूप में जाना जाता है, जो इमेज-लर्निंग सॉफ़्टवेयर के व्यवहार को ठीक करने के लिए उपयोग की जाने वाली छवियों का एक संग्रह है। यह अंततः एआई को चेहरों की एक विस्तृत श्रृंखला को आसानी से पहचानने की अनुमति देता है। हालांकि, इन संदर्भ सेटों में एक विविध पूल की कमी हो सकती है, जिससे ट्विटर टीम द्वारा अनुभव की जाने वाली समस्याएं हो सकती हैं।

"निश्चित रूप से, यह किसी भी अल्पसंख्यक के लिए एक बहुत बड़ा मुद्दा है, लेकिन मुझे लगता है कि एक बहुत व्यापक मुद्दा भी है," लर्नड-मिलर ने कहा। "यह तकनीकी क्षेत्र में विविधता की कमी और दुरुपयोग और दुरुपयोग के लिए प्रवण इस तरह के शक्तिशाली सॉफ़्टवेयर के उचित उपयोग को दिखाने के लिए एक केंद्रीकृत, नियामक बल की आवश्यकता से संबंधित है।"

तकनीक में विविधता की कमी

चॉपिंग ब्लॉक पर ट्विटर नवीनतम टेक कंपनी हो सकती है, लेकिन यह एक नई समस्या से बहुत दूर है। तकनीकी क्षेत्र मुख्य रूप से सफेद, सदा पुरुष-प्रधान क्षेत्र बना हुआ है और शोधकर्ताओं ने पाया है कि विविधता की कमी विकसित सॉफ्टवेयर में प्रणालीगत, ऐतिहासिक असंतुलन की प्रतिकृति का कारण बनती है।

न्यूयॉर्क यूनिवर्सिटी के एआई नाउ इंस्टीट्यूट की 2019 की रिपोर्ट में, शोधकर्ताओं ने पाया कि देश की शीर्ष टेक फर्मों में अश्वेत लोग 6 प्रतिशत से भी कम कार्यबल बनाते हैं। इसी तरह, क्षेत्र में काम करने वालों में महिलाओं की संख्या केवल 26 प्रतिशत है-यह आंकड़ा 1960 में उनके हिस्से से कम है।

यह अल्पसंख्यकों को भयानक महसूस कराता है, जैसे वे महत्वपूर्ण नहीं हैं, और इसका उपयोग अन्य चीजों के लिए किया जा सकता है जो लाइन के नीचे और अधिक गंभीर नुकसान पहुंचा सकते हैं।

सतह पर, ये प्रतिनिधित्व संबंधी मुद्दे सांसारिक लग सकते हैं, लेकिन व्यवहार में, इससे होने वाला नुकसान गहरा हो सकता है। एआई नाउ इंस्टीट्यूट की रिपोर्ट के शोधकर्ताओं ने सुझाव दिया है कि यह यथोचित रूप से गैर-श्वेत और गैर-पुरुष आबादी के लिए खाते में विफल होने वाले सॉफ़्टवेयर के मुद्दों से संबंधित है।चाहे वह इन्फ्रारेड साबुन डिस्पेंसर हो जो गहरे रंग की त्वचा का पता लगाने में विफल हो या अमेज़ॅन का एआई सॉफ़्टवेयर महिला चेहरों को उनके पुरुष समकक्षों से अलग करने में विफल हो, तकनीकी उद्योग में विविधता को संबोधित करने में विफलता एक विविध दुनिया से निपटने के लिए प्रौद्योगिकी की विफलता की ओर ले जाती है।

"ऐसे बहुत से लोग हैं जिन्होंने मुद्दों के बारे में नहीं सोचा है और वास्तव में यह नहीं जानते हैं कि ये चीजें कैसे नुकसान पहुंचा सकती हैं और ये नुकसान कितने महत्वपूर्ण हैं," लर्न-मिलर ने एआई इमेज लर्निंग के बारे में सुझाव दिया। "उम्मीद है कि लोगों की संख्या घट रही है!"

सिफारिश की: