कैसे AI अपनी खतरनाक संतानों पर नजर रख सकता है

विषयसूची:

कैसे AI अपनी खतरनाक संतानों पर नजर रख सकता है
कैसे AI अपनी खतरनाक संतानों पर नजर रख सकता है
Anonim

मुख्य तथ्य

  • एक नया पेपर दावा करता है कि कृत्रिम बुद्धिमत्ता यह निर्धारित कर सकती है कि किन शोध परियोजनाओं को दूसरों की तुलना में अधिक विनियमन की आवश्यकता हो सकती है।
  • यह पता लगाने के बढ़ते प्रयास का हिस्सा है कि किस प्रकार का एआई खतरनाक हो सकता है।
  • एक विशेषज्ञ का कहना है कि एआई का असली खतरा यह है कि यह इंसान को गूंगा बना सकता है।

Image
Image

आर्टिफिशियल इंटेलिजेंस (एआई) कई लाभ प्रदान करता है, लेकिन कुछ संभावित खतरे भी। और अब, शोधकर्ताओं ने उनकी कम्प्यूटरीकृत रचनाओं पर नज़र रखने के लिए एक तरीका प्रस्तावित किया है।

एक अंतरराष्ट्रीय टीम एक नए पेपर में कहती है कि एआई यह निर्धारित कर सकता है कि किस प्रकार की शोध परियोजनाओं को दूसरों की तुलना में अधिक विनियमन की आवश्यकता हो सकती है। वैज्ञानिकों ने एक ऐसे मॉडल का इस्तेमाल किया जो जीव विज्ञान और गणित की अवधारणाओं को मिलाता है और यह पता लगाने के बढ़ते प्रयास का हिस्सा है कि किस तरह का एआई खतरनाक हो सकता है।

"बेशक, जबकि एआई का 'साइंस-फाई' खतरनाक उपयोग उत्पन्न हो सकता है यदि हम ऐसा […], फ्रांस में इकोले पॉलीटेक्निक में टेक्नोलॉजी फॉर चेंज के अध्यक्ष ने एक ईमेल साक्षात्कार में लाइफवायर को बताया। "एआई को लागू करना या तो क्षमता बढ़ाने वाला हो सकता है (उदाहरण के लिए, यह मानव / कार्यकर्ता के कौशल और ज्ञान की प्रासंगिकता को मजबूत करता है) या क्षमता को नष्ट कर रहा है, यानी, एआई मौजूदा कौशल और ज्ञान को कम उपयोगी या अप्रचलित बनाता है।"

टैब रखना

हाल के पेपर के लेखकों ने एक पोस्ट में लिखा है कि उन्होंने काल्पनिक एआई प्रतियोगिताओं का अनुकरण करने के लिए एक मॉडल बनाया है। उन्होंने यह अनुमान लगाने के लिए सैकड़ों बार सिमुलेशन चलाया कि वास्तविक दुनिया की AI दौड़ कैसे काम कर सकती है।

वैज्ञानिकों ने लिखा, "जिस चर को हमने विशेष रूप से महत्वपूर्ण पाया, वह दौड़ की "लंबाई" थी-जिस समय हमारी नकली दौड़ अपने उद्देश्य (एक कार्यात्मक एआई उत्पाद) तक पहुंचने में लगी थी। "जब एआई दौड़ अपने उद्देश्य पर जल्दी पहुंच गई, तो हमने पाया कि जिन प्रतियोगियों को हमने हमेशा सुरक्षा सावधानियों की अनदेखी करने के लिए कोडित किया था, वे हमेशा जीत गए।"

इसके विपरीत, शोधकर्ताओं ने पाया कि दीर्घकालिक AI प्रोजेक्ट उतने खतरनाक नहीं थे क्योंकि विजेता हमेशा सुरक्षा की अनदेखी करने वाले नहीं थे। "इन निष्कर्षों को देखते हुए, नियामकों के लिए यह स्थापित करना महत्वपूर्ण होगा कि विभिन्न एआई दौड़ कितने समय तक चलने की संभावना है, उनके अपेक्षित समय के आधार पर विभिन्न नियमों को लागू करते हुए," उन्होंने लिखा। "हमारे निष्कर्ष बताते हैं कि सभी एआई दौड़ के लिए एक नियम - स्प्रिंट से लेकर मैराथन तक - कुछ ऐसे परिणामों की ओर ले जाएगा जो आदर्श से बहुत दूर हैं।"

एआई पर सलाह देने वाली कंपनी कोडा स्ट्रैटेजी के प्रबंध निदेशक डेविड झाओ ने लाइफवायर के साथ एक ईमेल साक्षात्कार में कहा कि खतरनाक एआई की पहचान करना मुश्किल हो सकता है। चुनौतियां इस तथ्य में निहित हैं कि एआई के लिए आधुनिक दृष्टिकोण एक गहन शिक्षण दृष्टिकोण अपनाते हैं।

"हम जानते हैं कि गहरी शिक्षा कई उपयोग के मामलों में बेहतर परिणाम देती है, जैसे कि छवि का पता लगाना या भाषण पहचान," झाओ ने कहा। "हालांकि, मनुष्यों के लिए यह समझना असंभव है कि एक गहन शिक्षण एल्गोरिदम कैसे काम करता है और यह इसका उत्पादन कैसे करता है। इसलिए, यह बताना मुश्किल है कि अच्छे परिणाम देने वाला एआई खतरनाक है क्योंकि मनुष्यों के लिए यह समझना असंभव है कि क्या हो रहा है।"

एआई फर्म मिक्समोड में रणनीति के निदेशक मैट शी ने ईमेल के माध्यम से कहा,महत्वपूर्ण प्रणालियों में उपयोग किए जाने पर सॉफ़्टवेयर "खतरनाक" हो सकता है, जिसमें कमजोरियां हैं जिनका खराब अभिनेताओं द्वारा शोषण किया जा सकता है या गलत परिणाम उत्पन्न कर सकते हैं। उन्होंने कहा कि असुरक्षित एआई के परिणामस्वरूप परिणामों का अनुचित वर्गीकरण, डेटा हानि, आर्थिक प्रभाव, या शारीरिक क्षति भी हो सकती है।

"पारंपरिक सॉफ्टवेयर के साथ, डेवलपर्स एल्गोरिदम को कोड करते हैं, जिसकी जांच एक व्यक्ति द्वारा यह पता लगाने के लिए किया जा सकता है कि किसी भेद्यता को कैसे प्लग किया जाए या स्रोत कोड को देखकर बग को ठीक किया जाए," शिया ने कहा।"एआई के साथ, हालांकि, तर्क का एक बड़ा हिस्सा डेटा से ही बनाया जाता है, तंत्रिका नेटवर्क और इसी तरह की डेटा संरचनाओं में एन्कोड किया जाता है। इसके परिणामस्वरूप सिस्टम "ब्लैक बॉक्स" होते हैं जिन्हें कमजोरियों को खोजने और ठीक करने के लिए जांच नहीं की जा सकती है सामान्य सॉफ्टवेयर की तरह।"

आगे खतरे?

जबकि एआई को द टर्मिनेटर जैसी फिल्मों में एक बुरी ताकत के रूप में चित्रित किया गया है जो मानवता को नष्ट करने का इरादा रखती है, वास्तविक खतरे अधिक संभावित हो सकते हैं, विशेषज्ञों का कहना है। उदाहरण के लिए, रायना का सुझाव है कि AI हमें मूर्ख बना सकता है।

“यह इंसानों को उनके दिमाग को प्रशिक्षित करने और विशेषज्ञता विकसित करने से वंचित कर सकता है,” उन्होंने कहा। “यदि आप अपना अधिकांश समय स्टार्टअप एप्लिकेशन पढ़ने में नहीं लगाते हैं तो आप उद्यम पूंजी के विशेषज्ञ कैसे बन सकते हैं? इससे भी बदतर, एआई कुख्यात रूप से 'ब्लैक बॉक्स' है और थोड़ा सा पता लगाया जा सकता है। न जाने क्यों एक विशेष एआई निर्णय लिया गया था, इसका मतलब है कि इससे सीखने के लिए बहुत कम होगा, ठीक उसी तरह जैसे आप सेगवे पर स्टेडियम के चारों ओर गाड़ी चलाकर एक विशेषज्ञ धावक नहीं बन सकते।"

यह बताना मुश्किल है कि क्या AI जो अच्छे परिणाम दे रहा है वह खतरनाक है, क्योंकि इंसानों के लिए यह समझना असंभव है कि क्या हो रहा है।

शायद एआई से सबसे तात्कालिक खतरा यह संभावना है कि यह पक्षपाती परिणाम प्रदान कर सकता है, एआई के कानूनी निहितार्थ पर लिखने वाले वकील, लाइल सोलोमन ने एक ईमेल साक्षात्कार में कहा।

"एआई सामाजिक विभाजन को गहरा करने में सहायता कर सकता है। एआई अनिवार्य रूप से मनुष्यों से एकत्र किए गए डेटा से बनाया गया है," सोलोमन ने कहा। "[लेकिन] विशाल डेटा के बावजूद, इसमें न्यूनतम उपसमुच्चय शामिल हैं और इसमें वह शामिल नहीं होगा जो हर कोई सोचता है। इस प्रकार, अंतर्निहित पूर्वाग्रहों के साथ टिप्पणियों, सार्वजनिक संदेशों, समीक्षाओं आदि से एकत्रित डेटा एआई को भेदभाव और घृणा को बढ़ा देगा।"

सिफारिश की: