मुख्य तथ्य
- नए शोध से पता चलता है कि लोग एआई-जनित छवियों को वास्तविक छवियों से अलग नहीं कर सकते।
- प्रतिभागियों ने एआई-जनित छवियों को अधिक भरोसेमंद के रूप में रेट किया।
- विशेषज्ञों का मानना है कि लोगों को इंटरनेट पर दिखाई देने वाली किसी भी चीज़ पर भरोसा करना बंद कर देना चाहिए।
जब इंटरनेट की बात आती है तो कहावत 'देखना ही विश्वास करना है' प्रासंगिक नहीं है, और विशेषज्ञों का कहना है कि यह जल्द ही कभी भी बेहतर नहीं होने वाला है।
हाल के एक अध्ययन में पाया गया कि कृत्रिम बुद्धि (एआई) द्वारा उत्पन्न चेहरों की छवियां न केवल अत्यधिक फोटो-यथार्थवादी थीं, बल्कि वे वास्तविक चेहरों की तुलना में अधिक गुणी भी दिखाई देती थीं।
"एआई-संश्लेषित चेहरों के फोटोरिअलिज़्म के हमारे मूल्यांकन से संकेत मिलता है कि संश्लेषण इंजन अलौकिक घाटी से गुज़रे हैं, और ऐसे चेहरे बनाने में सक्षम हैं जो वास्तविक चेहरों की तुलना में अप्रभेद्य और अधिक भरोसेमंद हैं," शोधकर्ताओं ने देखा।
वह व्यक्ति मौजूद नहीं है
शोधकर्ताओं, लैंकेस्टर विश्वविद्यालय के डॉ. सोफी नाइटिंगेल और कैलिफोर्निया विश्वविद्यालय, बर्कले के प्रोफेसर हनी फरीद ने सभी प्रकार के ऑनलाइन धोखाधड़ी से लेकर स्फूर्तिदायक तक, गहरे नकली के अच्छी तरह से प्रचारित खतरों को स्वीकार करने के बाद प्रयोग किए। दुष्प्रचार अभियान।
"शायद सबसे घातक परिणाम यह है कि, एक डिजिटल दुनिया में जिसमें किसी भी छवि या वीडियो को नकली बनाया जा सकता है, किसी भी असुविधाजनक या अवांछित रिकॉर्डिंग की प्रामाणिकता पर सवाल उठाया जा सकता है," शोधकर्ताओं ने तर्क दिया।
उन्होंने तर्क दिया कि हालांकि गहरी-नकली सामग्री का पता लगाने के लिए स्वचालित तकनीकों को विकसित करने में प्रगति हुई है, वर्तमान तकनीकें कुशल और सटीक नहीं हैं जो ऑनलाइन अपलोड की जा रही नई सामग्री की निरंतर स्ट्रीम को बनाए रखने के लिए पर्याप्त हैं।इसका मतलब है कि यह ऑनलाइन सामग्री के उपभोक्ताओं पर निर्भर है कि वे नकली से असली का पता लगाएं, दोनों का सुझाव है।
KnowBe4 में एक सुरक्षा जागरूकता अधिवक्ता, जेल विरिंगा ने सहमति व्यक्त की। उन्होंने ईमेल पर लाइफवायर को बताया कि विशेष तकनीक के बिना वास्तविक गहरे नकली का मुकाबला करना बेहद कठिन है। "[कम करने वाली तकनीकें] वास्तविक समय की प्रक्रियाओं में लागू करना महंगा और मुश्किल हो सकता है, अक्सर तथ्य के बाद ही डीपफेक का पता लगाना।"
इस धारणा के साथ, शोधकर्ताओं ने यह निर्धारित करने के लिए कई प्रयोग किए कि क्या मानव प्रतिभागी अत्याधुनिक संश्लेषित चेहरों को वास्तविक चेहरों से अलग कर सकते हैं। अपने परीक्षणों में, उन्होंने पाया कि नकली की पहचान करने में मदद करने के लिए प्रशिक्षण के बावजूद, सटीकता दर केवल 59% तक सुधरी, बिना प्रशिक्षण के 48% से ऊपर।
इसने शोधकर्ताओं को यह परीक्षण करने के लिए प्रेरित किया कि क्या भरोसेमंदता की धारणा लोगों को कृत्रिम छवियों की पहचान करने में मदद कर सकती है। तीसरे अध्ययन में, उन्होंने प्रतिभागियों से चेहरों की विश्वसनीयता को रेट करने के लिए कहा, केवल यह पता लगाने के लिए कि सिंथेटिक चेहरों की औसत रेटिंग 7 थी।असली चेहरों के लिए औसत रेटिंग से 7% अधिक भरोसेमंद। यह संख्या शायद ज्यादा न लगे, लेकिन शोधकर्ताओं का दावा है कि यह सांख्यिकीय रूप से महत्वपूर्ण है।
गहरे नकली
डीप फेक पहले से ही एक प्रमुख चिंता का विषय था, और अब इस अध्ययन से पानी और अधिक गड़बड़ा गया है, जो बताता है कि इस तरह की उच्च-गुणवत्ता वाली नकली इमेजरी ऑनलाइन घोटालों में एक नया आयाम जोड़ सकती है, उदाहरण के लिए, अधिक बनाने में मदद करके ऑनलाइन नकली प्रोफाइल को आश्वस्त करना।
"एक चीज जो साइबर सुरक्षा को संचालित करती है, वह है लोगों का प्रौद्योगिकियों, प्रक्रियाओं और उन्हें सुरक्षित रखने का प्रयास करने वाले लोगों पर भरोसा," विरिंगा ने साझा किया। "डीप फेक, खासकर जब वे फोटोरिअलिस्टिक बन जाते हैं, इस भरोसे को कमजोर करते हैं और इसलिए, साइबर सुरक्षा को अपनाना और स्वीकार करना। इससे लोगों को उनके द्वारा देखी जाने वाली हर चीज के प्रति अविश्वास पैदा हो सकता है।"
Pixel गोपनीयता में उपभोक्ता गोपनीयता चैंपियन क्रिस हॉक सहमत हुए। एक संक्षिप्त ईमेल एक्सचेंज में, उन्होंने लाइफवायर को बताया कि फोटोरिअलिस्टिक डीप फेक ऑनलाइन "तबाही" का कारण बन सकता है, खासकर इन दिनों जब फोटो आईडी तकनीक का उपयोग करके सभी प्रकार के खातों तक पहुँचा जा सकता है।
सुधारात्मक कार्रवाई
शुक्र है, प्रोसेगुर सिक्योरिटी के आईओटी के निदेशक ग्रेग कुह्न का कहना है कि ऐसी प्रक्रियाएं हैं जो इस तरह के धोखाधड़ी प्रमाणीकरण से बच सकती हैं। उन्होंने ईमेल के माध्यम से लाइफवायर को बताया कि एआई-आधारित क्रेडेंशियल सिस्टम एक सत्यापित व्यक्ति से एक सूची से मेल खाते हैं, लेकिन कई में "जीवंतता" की जांच के लिए सुरक्षा उपाय हैं।
"इस प्रकार के सिस्टम के लिए उपयोगकर्ता को कुछ कार्यों को करने की आवश्यकता हो सकती है और मार्गदर्शन कर सकते हैं जैसे मुस्कान या अपना सिर बाईं ओर, फिर दाएं। ये ऐसी चीजें हैं जो स्थिर रूप से उत्पन्न चेहरे प्रदर्शन नहीं कर सकते हैं," कुह्न साझा किया।
शोधकर्ताओं ने जनता को सिंथेटिक छवियों से बचाने के लिए उनके निर्माण और वितरण को विनियमित करने के लिए दिशानिर्देश प्रस्तावित किए हैं। शुरुआत के लिए, वे यह सुनिश्चित करने के लिए छवि- और वीडियो-संश्लेषण नेटवर्क में गहराई से निहित वॉटरमार्क शामिल करने का सुझाव देते हैं कि सभी सिंथेटिक मीडिया को मज़बूती से पहचाना जा सके।
तब तक, पॉल बिशॉफ़, गोपनीयता अधिवक्ता और Comparitech में infosec अनुसंधान के संपादक, कहते हैं कि लोग अपने दम पर हैं।"लोगों को ऑनलाइन चेहरों पर भरोसा नहीं करना सीखना होगा, जैसे हम सभी ने (उम्मीद है) अपने ईमेल में प्रदर्शन नामों पर भरोसा नहीं करना सीख लिया है," बिशॉफ़ ने ईमेल के माध्यम से लाइफवायर को बताया।