मुख्य तथ्य
- जैसे-जैसे डीपफेक बनाना आसान होता जा रहा है, वैसे-वैसे उनका पता लगाने के नए और बेहतर तरीके प्राथमिकता बन गए हैं।
- फेसबुक की डीपफेक-स्पॉटिंग तकनीक यह पता लगाने के लिए रिवर्स मशीन लर्निंग का उपयोग करती है कि कोई वीडियो डीपफेक है या नहीं।
- विशेषज्ञों का कहना है कि ब्लॉकचेन तकनीक का उपयोग करना यह देखने का सबसे अच्छा तरीका होगा कि कोई वीडियो वास्तविक है या नहीं, क्योंकि यह विधि प्रासंगिक डेटा पर निर्भर करती है।
फेसबुक को डीपफेक से निपटने के लिए अपने मशीन लर्निंग मॉडल पर भरोसा है, लेकिन विशेषज्ञों का कहना है कि मशीन लर्निंग हमें डीपफेक द्वारा ठगे जाने से नहीं बचाएगी।
फेसबुक, माइक्रोसॉफ्ट और गूगल जैसी कंपनियां सभी वेब और सोशल नेटवर्क पर डीपफेक को फैलने से रोकने के लिए काम कर रही हैं। हालांकि तरीके अलग-अलग हैं, इन झूठे वीडियो का पता लगाने के लिए एक संभावित मूर्खतापूर्ण तरीका है: ब्लॉकचेन।
“[ब्लॉकचैन्स] आपको डीपफेक को इस तरह से मान्य करने के लिए बहुत सारी संभावनाएं देता है जो कि सत्यापन का सबसे अच्छा रूप है जिसे मैं देख सकता हूं, स्टीफन वोल्फ्राम, वोल्फ्राम रिसर्च के संस्थापक और सीईओ और ए न्यू काइंड ऑफ के लेखक साइंस ने लाइफवायर को फोन पर बताया।
फेसबुक की डीपफेक-स्पॉटिंग तकनीक
डीपफेक तकनीक पिछले कुछ वर्षों में तेजी से बढ़ी है। भ्रामक वीडियो मशीन सीखने के तरीकों का इस्तेमाल करते हैं, जैसे किसी व्यक्ति के चेहरे को किसी अन्य व्यक्ति के शरीर पर लगाना, पृष्ठभूमि की स्थिति बदलना, नकली लिप-सिंक, और बहुत कुछ। वे हानिरहित पैरोडी से लेकर मशहूर हस्तियों या सार्वजनिक हस्तियों को कुछ ऐसा कहते या करते हैं जो उन्होंने नहीं किया।
विशेषज्ञों का कहना है कि तकनीक तेजी से आगे बढ़ रही है, और यह कि डीपफेक केवल अधिक आश्वस्त (और बनाने में आसान) होगा क्योंकि तकनीक अधिक व्यापक रूप से उपलब्ध और अधिक नवीन हो जाती है।
फेसबुक ने हाल ही में मिशिगन स्टेट यूनिवर्सिटी के साथ साझेदारी में अपनी डीपफेक डिटेक्शन तकनीक के बारे में अधिक जानकारी दी है। सोशल नेटवर्क का कहना है कि यह एक आर्टिफिशियल इंटेलिजेंस-जनरेटेड इमेज से लेकर इसे बनाने के लिए इस्तेमाल किए जाने वाले जनरेटिव मॉडल तक रिवर्स इंजीनियरिंग पर निर्भर करता है।
फेसबुक के साथ काम करने वाले शोध वैज्ञानिकों ने कहा कि यह विधि डीपफेक उत्पन्न करने के लिए इस्तेमाल किए गए एआई मॉडल के पीछे के अनूठे पैटर्न को उजागर करने पर निर्भर करती है।
“ओपन-सेट रिकग्निशन के लिए इमेज एट्रिब्यूशन को सामान्यीकृत करके, हम एक डीपफेक बनाने के लिए उपयोग किए जाने वाले जनरेटिव मॉडल के बारे में अधिक जानकारी प्राप्त कर सकते हैं जो यह पहचानने से परे है कि इसे पहले नहीं देखा गया है। और डीपफेक के संग्रह के पैटर्न के बीच समानता का पता लगाकर, हम यह भी बता सकते हैं कि क्या छवियों की एक श्रृंखला एकल स्रोत से उत्पन्न हुई है,”शोध वैज्ञानिक शी यिन और टैन हासनर ने फेसबुक के ब्लॉग पोस्ट में इसकी डीपफेक-स्पॉटिंग विधि के बारे में लिखा।
वोल्फ्राम का कहना है कि यह समझ में आता है कि आप उन्नत एआई मॉडल (एक डीपफेक) को खोजने के लिए मशीन लर्निंग का उपयोग करेंगे। हालांकि, तकनीक को मूर्ख बनाने के लिए हमेशा जगह होती है।
“मैं बिल्कुल भी हैरान नहीं हूं कि [डीपफेक का पता लगाने] का एक अच्छा मशीन सीखने का तरीका है,” वोल्फ्राम ने कहा। "एकमात्र प्रश्न यह है कि यदि आप पर्याप्त प्रयास करते हैं, तो क्या आप इसे मूर्ख बना सकते हैं? मुझे यकीन है कि आप कर सकते हैं।”
डीपफेक से अलग तरीके से मुकाबला करना
इसके बजाय, वोल्फ्राम ने कहा कि उनका मानना है कि कुछ प्रकार के डीपफेक को सटीक रूप से पहचानने के लिए ब्लॉकचेन का उपयोग करना सबसे अच्छा विकल्प होगा। मशीन लर्निंग पर ब्लॉकचेन का उपयोग करने के बारे में उनकी राय 2019 पर वापस जाती है, और उन्होंने कहा कि, अंततः, ब्लॉकचेन दृष्टिकोण हमारी गहरी नकली समस्या का अधिक सटीक समाधान प्रदान कर सकता है।
वोल्फ्राम ने साइंटिफिक अमेरिकन में प्रकाशित एक लेख में लिखा है, "मैं उम्मीद करता हूं कि छवि और वीडियो दर्शक नियमित रूप से ब्लॉकचेन (और 'डेटा त्रिभुज गणना') के खिलाफ जांच कर सकते हैं जैसे वेब ब्राउज़र अब सुरक्षा प्रमाणपत्रों की जांच कैसे करते हैं।"
चूंकि ब्लॉकचेन डेटा को ब्लॉक में संग्रहीत करते हैं जो कालानुक्रमिक क्रम में एक साथ जंजीर में बंधे होते हैं, और चूंकि विकेंद्रीकृत ब्लॉकचेन अपरिवर्तनीय होते हैं, इसलिए दर्ज किया गया डेटा अपरिवर्तनीय होता है।
एकमात्र प्रश्न यह है कि यदि आप पर्याप्त प्रयास करते हैं, तो क्या आप इसे मूर्ख बना सकते हैं? मुझे यकीन है कि आप कर सकते हैं।
वोल्फ्राम ने समझाया कि एक वीडियो को ब्लॉकचेन में डालने से, आप इसे लेने में लगने वाले समय, स्थान और अन्य प्रासंगिक जानकारी को देख पाएंगे जो आपको यह बताने की अनुमति देगा कि क्या इसे किसी भी तरह से बदला गया है।
“सामान्य तौर पर, जितना अधिक मेटाडेटा होता है, वह चित्र या वीडियो को संदर्भित करता है, उतनी ही अधिक संभावना है कि आप बता पाएंगे,” उन्होंने कहा। "आप ब्लॉकचेन पर नकली समय नहीं बना सकते।"
हालाँकि, वोल्फ्राम ने कहा कि इस्तेमाल की जाने वाली विधि-चाहे वह मशीन लर्निंग हो या ब्लॉकचेन का उपयोग कर रही हो-डीपफेक के प्रकार पर निर्भर करती है जिससे आप बचाव करने की कोशिश कर रहे हैं (यानी, किम कार्दशियन का वीडियो कुछ मूर्खतापूर्ण या एक वीडियो का वीडियो राजनेता एक बयान या सुझाव दे रहा है)।
“ब्लॉकचेन दृष्टिकोण कुछ प्रकार के गहरे नकली से बचाता है, जैसे मशीन लर्निंग इमेज प्रोसेसिंग कुछ प्रकार के गहरे नकली से बचाता है,” उन्होंने कहा।
ऐसा लगता है कि आने वाले गहरे नकली जलप्रलय से निपटने के लिए नीचे की रेखा हम सभी के लिए सतर्कता है।