Nude Photos साठी Apple स्कॅन करणार तुमचा फोन; Child Porn ला आळा घालण्यासाठी कंपनीने उचलले मोठे पाऊल
Apple (Image: PTI)

चाइल्ड पॉर्नला (Child Porn) आळा घालण्यासाठी आता Apple कंपनी पुढाकार घेणार आहे. गुरुवारी कंपनीने जाहीर केले की, ते एक नवीन सॉफ्टवेअर लॉन्च करणार आहेत. हे सॉफ्टवेअर लहान मुलांच्या लैंगिक अत्याचारासंबंधी फोटोजसाठी वापरकर्त्याच्या iCloud वर असणाऱ्या फोटोंची तपासणी करेल. ज्याद्वारे या फोटोजमध्ये बाल लैंगिक शोषण कंटेंट आहे का नाही हे पाहिले जाईल. तसे काही आढळल्यास, वापरकर्त्याची माहिती संबंधित अधिकाऱ्यांना कळवली जाईल. मॅथ्यू ग्रीन, एक क्रिप्टोग्राफी आणि सायबर सुरक्षा तज्ञ आणि जॉन्स हॉपकिन्स विद्यापीठातील संगणक विज्ञानाचे सहयोगी प्रोसेसर यांनी ही घोषणा केली आहे.

ट्वीट्सच्या सिरीजमध्ये याविषयी माहिती देताना ग्रीनने लिहिले, 'सुरुवातीला क्लाउड-स्टोअर केलेल्या फोटोंसाठी क्लायंट-साइड स्कॅनिंग करण्यासाठी याचा वापर केला जाईल. शेवटी, एन्क्रिप्टेड मेसेजिंग सिस्टीममध्ये पाळत ठेवणे हा एक महत्त्वाचा उद्द्श असेल. ब्लूमबर्गच्या मार्क गुर्मनच्या अहवालानुसार, Apple ने अशा एका फिचरची घोषण केली आहे, जे सर्व पाठवलेले व आलेले सर्व संदेश तपासेल आणि त्यामध्ये बाल लैंगिक अत्याचारासंबंधी कंटेंट नाही ना याची खात्री करेल.

कंपनी ज्या प्रकारच्या कंटेंटचा शोध घेत आहे असे काही त्यात आढळल्यास ही गोष्ट Apple सर्व्हरकडे रिपोर्ट केली जाईल. वापरकर्त्याच्या खात्यात बाल लैंगिक शोषणासंबंधी कंटेंटमध्ये वाढ झाल्याचे आढळल्यास, कंपनी या प्रकरणाची मॅन्युअली तपासणी करेल. इतकेच नाही तर या घटनेची माहिती 'नॅशनल सेंटर फॉर मिसिंग अँड एक्सप्लोयटेड चिल्ड्रन'ला दिली जाईल. (हेही वाचा: Upcoming Mobiles: रिअलमीचा 'हा' नवीन दमदार स्मार्टफोन लाँच, जाणून घ्या याची वैशिष्ट्ये)

दुसरीकडे मॅथ्यू ग्रीन याबाबत म्हणतात, Apple ने जे पाऊल उचलायचे ठरवले आहे त्यामुळे नक्कीच आयओएसमध्ये (IOS) चाइल्ड पॉर्नसंबंधी कंटेंट कमी होऊ शकेल मात्र त्यामुळे वापरकर्त्यांच्या प्रायव्हसीवर गदा येईल. गोपनीयता आणि सुरक्षेबाबत भाष्य करणाऱ्या लोकांनी आधीच दावा केला आहे की, कंपनीचा हेतू जरी चांगला असला तरी अशी कृती वापरकर्त्यांच्या हिताची असू शकत नाही.