Deepfake Porn Videos: वैयक्तिक आयुष्यावर होऊ शकतो 'Artificial Intelligence' चा नकारात्मक परिणाम; इंटरनेटवर डीपफेक पॉर्न व्हिडीओमध्ये वाढ
एका घटनेचा संदर्भ देताना ऑस्ट्रेलियातील तज्ञ नोएला मार्टिन सांगतात की, जेव्हा एका 28 वर्षीय महिलेने गुगलवर तिचा फोटो शोधण्याचा प्रयत्न केला तेव्हा तिला तिचे डीपफेक पॉर्न सापडले. हा व्हिडीओ कोणी बनवला हे देखील तिला माहित नसल्याचे या महिलेने सांगितले.
सध्या जगभरात 'आर्टिफिशियल इंटेलिजन्स'ची (Artificial Intelligence) जोरदार चर्चा सुरू आहे. या तंत्रज्ञानाच्या मदतीने अशा अनेक गोष्टी शक्य होत आहेत, ज्याचा लोकांनी कधी विचारही केला नसेल. मात्र, प्रत्येक नाण्याला दोन बाजू असतात. तंत्रज्ञान क्षेत्रात आर्टिफिशियल इंटेलिजन्स भरारी घेत असताना त्याच्या नकारात्मक बाजू समोर येत आहेत. आर्टिफिशियल इंटेलिजन्सच्या गैरवापराचा लोकांच्या वैयक्तिक आयुष्यावर मोठा परिणाम होऊ शकतो. कारण आता डीपफेक व्हिडिओद्वारे पॉर्नोग्राफीमध्येही (Deepfake Porn Videos) या तंत्रज्ञानाचा गैरवापर होण्याची शक्यता वाढली आहे.
डीपफेक व्हिडिओ हे डिजिटल पद्धतीने तयार केलेले व्हिडिओ आहेत. कृत्रिम बुद्धिमत्तेच्या मदतीने यामध्ये बदल केले जातात. अनेक वर्षांपासून असे व्हिडिओ बनवले जात आहेत, जे इंटरनेटवर बिनदिक्कतपणे प्रसारित केले जात आहेत. अनेक वर्षांपूर्वी, एका Reddit वापरकर्त्याने काही क्लिप शेअर केल्या होत्या, ज्यात एका सेलिब्रिटीचा चेहरा एका दुसऱ्याच शरीरावर बसवला होता. आर्टिफिशियल इंटेलिजन्सच्या मदतीने असे खोटे एडीटेड व्हिडीओ बनवणे सोपे झाले आहे.
अशा व्हिडीओमध्ये कोणत्याही शरीरावर तुम्ही कोणाचाही चेहरा चिटकवू शकता. या प्रकारचे तंत्रज्ञान प्रत्येकासाठी आणि विशेषतः महिलांसाठी एक मोठी समस्या बनू शकते. डीपफेक व्हिडीओ बनवारे लोक लोकांना लक्ष्य करण्यासाठी आणि इंटरनेट वापरकर्त्यांना आकर्षित करण्यासाठी असे व्हिडिओ बनवतात. यात पत्रकार, नेते, अभिनेते यांचे चेहरेही वापरले जातात. इंटरनेटवर असे हजारो व्हिडिओ आहेत. असे काही व्हिडिओ देखील आहेत जे वापरकर्त्याला स्वतःचा चेहरा लावण्याचा पर्याय देखील देतात.
आपल्या आधीच्या जोडीदाराला त्रास देण्यासाठी किंवा इतर कोणाचीही प्रतिमा खराब करण्यासाठीही हे तंत्र वापरले जात आहे. तज्ज्ञांचे म्हणणे आहे की, आजकाल डीपफेक बनवणे खूप सोपे झाले आहे. सत्य हे आहे की असे तंत्रज्ञान पुढे जात राहील आणि त्याबरोबर अशा गोष्टीही पुढे जातील. ऑनलाइन लैंगिक हिंसा, डीपफेक पॉर्न, डीपफेक पॉर्न इमेजेसच्या माध्यमातून लोकांचा छळ होण्याच्या घटनांमध्ये वाढ होत आहे. (हेही वाचा: Porn Videos in Train: ट्रेनमध्ये पॉर्न व्हिडीओ पाहणे पडू शकते महागात; होणार कडक कारवाई, 'या' रेल्वे कंपनीने जारी केली मार्गदर्शक तत्त्वे)
एका घटनेचा संदर्भ देताना ऑस्ट्रेलियातील तज्ञ नोएला मार्टिन सांगतात की, जेव्हा एका 28 वर्षीय महिलेने गुगलवर तिचा फोटो शोधण्याचा प्रयत्न केला तेव्हा तिला तिचे डीपफेक पॉर्न सापडले. हा व्हिडीओ कोणी बनवला हे देखील तिला माहित नसल्याचे या महिलेने सांगितले. यानंतर तिने अनेक वेबसाइटशी संपर्क साधून व्हिडिओ काढून टाकण्याचा प्रयत्न केला.
(Social media brings you the latest breaking news, viral news from the world of social media including Twitter, Instagram and YouTube. The above post is embedded directly from the user's social media account. This body of content has not been edited or may not be edited by Latestly staff. Opinions appearing on social media posts and the facts do not reflect the opinions of Latestly, and Latestly assumes no responsibility for the same.)