Deepfake Porn Videos: वैयक्तिक आयुष्यावर होऊ शकतो 'Artificial Intelligence' चा नकारात्मक परिणाम; इंटरनेटवर डीपफेक पॉर्न व्हिडीओमध्ये वाढ
प्रातिनिधिक प्रतिमा | (Photo Credit: File Photo)

सध्या जगभरात 'आर्टिफिशियल इंटेलिजन्स'ची (Artificial Intelligence) जोरदार चर्चा सुरू आहे. या तंत्रज्ञानाच्या मदतीने अशा अनेक गोष्टी शक्य होत आहेत, ज्याचा लोकांनी कधी विचारही केला नसेल. मात्र, प्रत्येक नाण्याला दोन बाजू असतात. तंत्रज्ञान क्षेत्रात आर्टिफिशियल इंटेलिजन्स भरारी घेत असताना त्याच्या नकारात्मक बाजू समोर येत आहेत. आर्टिफिशियल इंटेलिजन्सच्या गैरवापराचा लोकांच्या वैयक्तिक आयुष्यावर मोठा परिणाम होऊ शकतो. कारण आता डीपफेक व्हिडिओद्वारे पॉर्नोग्राफीमध्येही (Deepfake Porn Videos) या तंत्रज्ञानाचा गैरवापर होण्याची शक्यता वाढली आहे.

डीपफेक व्हिडिओ हे डिजिटल पद्धतीने तयार केलेले व्हिडिओ आहेत. कृत्रिम बुद्धिमत्तेच्या मदतीने यामध्ये बदल केले जातात. अनेक वर्षांपासून असे व्हिडिओ बनवले जात आहेत, जे इंटरनेटवर बिनदिक्कतपणे प्रसारित केले जात आहेत. अनेक वर्षांपूर्वी, एका Reddit वापरकर्त्याने काही क्लिप शेअर केल्या होत्या, ज्यात एका सेलिब्रिटीचा चेहरा एका दुसऱ्याच शरीरावर बसवला होता. आर्टिफिशियल इंटेलिजन्सच्या मदतीने असे खोटे एडीटेड व्हिडीओ बनवणे सोपे झाले आहे.

अशा व्हिडीओमध्ये कोणत्याही शरीरावर तुम्ही कोणाचाही चेहरा चिटकवू शकता. या प्रकारचे तंत्रज्ञान प्रत्येकासाठी आणि विशेषतः महिलांसाठी एक मोठी समस्या बनू शकते. डीपफेक व्हिडीओ बनवारे लोक लोकांना लक्ष्य करण्यासाठी आणि इंटरनेट वापरकर्त्यांना आकर्षित करण्यासाठी असे व्हिडिओ बनवतात. यात पत्रकार, नेते, अभिनेते यांचे चेहरेही वापरले जातात. इंटरनेटवर असे हजारो व्हिडिओ आहेत. असे काही व्हिडिओ देखील आहेत जे वापरकर्त्याला स्वतःचा चेहरा लावण्याचा पर्याय देखील देतात.

आपल्या आधीच्या जोडीदाराला त्रास देण्यासाठी किंवा इतर कोणाचीही प्रतिमा खराब करण्यासाठीही हे तंत्र वापरले जात आहे. तज्ज्ञांचे म्हणणे आहे की, आजकाल डीपफेक बनवणे खूप सोपे झाले आहे. सत्य हे आहे की असे तंत्रज्ञान पुढे जात राहील आणि त्याबरोबर अशा गोष्टीही पुढे जातील. ऑनलाइन लैंगिक हिंसा, डीपफेक पॉर्न, डीपफेक पॉर्न इमेजेसच्या माध्यमातून लोकांचा छळ होण्याच्या घटनांमध्ये वाढ होत आहे. (हेही वाचा: Porn Videos in Train: ट्रेनमध्ये पॉर्न व्हिडीओ पाहणे पडू शकते महागात; होणार कडक कारवाई, 'या' रेल्वे कंपनीने जारी केली मार्गदर्शक तत्त्वे)

एका घटनेचा संदर्भ देताना ऑस्ट्रेलियातील तज्ञ नोएला मार्टिन सांगतात की, जेव्हा एका 28 वर्षीय महिलेने गुगलवर तिचा फोटो शोधण्याचा प्रयत्न केला तेव्हा तिला तिचे डीपफेक पॉर्न सापडले. हा व्हिडीओ कोणी बनवला हे देखील तिला माहित नसल्याचे या महिलेने सांगितले. यानंतर तिने अनेक वेबसाइटशी संपर्क साधून व्हिडिओ काढून टाकण्याचा प्रयत्न केला.