आलोचकों और उपयोगकर्ताओं से समान रूप से बहुत सारे धक्का-मुक्की के बाद, Apple अपने बाल शोषण विरोधी उपायों में देरी कर रहा है।
अगस्त में, टेक दिग्गज ने शुरू में एक नई नीति की घोषणा की, जो आईक्लाउड और संदेशों में संभावित बाल शोषण इमेजरी को खोजने के लिए प्रौद्योगिकी का उपयोग करती है, लेकिन चिंताओं ने इसका पालन किया। विशेषज्ञों ने चेतावनी दी कि भले ही Apple ने उपयोगकर्ता गोपनीयता का वादा किया हो, तकनीक अंततः सभी Apple उपयोगकर्ताओं को जोखिम में डाल देगी।
शुक्रवार को, Apple ने कहा कि वह सुधार करने और उपयोगकर्ता की गोपनीयता को पूरी तरह से सुनिश्चित करने के लिए प्रौद्योगिकी के रोलआउट में पूरी तरह से देरी करेगा।
"ग्राहकों, वकालत करने वाले समूहों, शोधकर्ताओं और अन्य लोगों की प्रतिक्रिया के आधार पर, हमने इन महत्वपूर्ण बाल सुरक्षा सुविधाओं को जारी करने से पहले इनपुट एकत्र करने और सुधार करने के लिए आने वाले महीनों में अतिरिक्त समय लेने का निर्णय लिया है," Apple ने एक में कहा अपनी वेबसाइट पर अद्यतन बयान।
बाल यौन शोषण सामग्री का पता लगाने की तकनीक इस साल के अंत में iOS 15 रोलआउट में उपलब्ध होने वाली थी, लेकिन अब यह स्पष्ट नहीं है कि यह फीचर कब और कब शुरू होगा।
नई तकनीक दो तरह से काम करेगी: पहला, आईक्लाउड में किसी इमेज का बैकअप लेने से पहले उसे स्कैन करना। यदि वह छवि CSAM के मानदंड से मेल खाती है, तो Apple को वह डेटा प्राप्त होगा। तकनीक का दूसरा हिस्सा बच्चों को संदेशों के माध्यम से प्राप्त होने वाली यौन स्पष्ट छवियों को पहचानने और धुंधला करने के लिए मशीन लर्निंग का उपयोग करता है।
हालांकि, नई नीति की घोषणा के बाद, गोपनीयता अधिवक्ताओं और समूहों ने कहा कि Apple अनिवार्य रूप से एक पिछला दरवाजा खोल रहा है जिसका गलत अभिनेता दुरुपयोग कर सकते हैं।
इन चिंताओं को दूर करने के लिए, Apple ने CSAM तकनीक की घोषणा के तुरंत बाद एक FAQ पृष्ठ जारी किया। ऐप्पल ने समझाया कि तकनीक डिवाइस पर संग्रहीत सभी तस्वीरों को स्कैन नहीं करेगी, संदेशों में एंड-टू-एंड एन्क्रिप्शन को तोड़ देगी, और निर्दोष लोगों को कानून प्रवर्तन के लिए झूठा ध्वजांकित नहीं करेगी।