YouTube (Photo Credits: Getty Image)

Deepfake Scams Crackdown: युट्युब (YouTube) ने AI तंत्रज्ञानाच्या (AI Technology) वापराने तयार केलेल्या फसवणूक करणाऱ्या वापरकर्त्यांसाठी 1,000 हून अधिक स्कॅम जाहिरात व्हिडिओ (Scam advertising video) काढून टाकले आहेत. 404 मीडियाने केलेल्या तपासणीनंतर, YouTube ने टेलर स्विफ्ट, स्टीव्ह हार्वे आणि जो रोगन यांसारख्या प्रसिद्ध व्यक्तिमत्त्वांसह मेडिकेअर घोटाळ्यांचा प्रचार करणाऱ्या भ्रामक जाहिराती तयार करण्यासाठी AI चा वापर करून तयार करण्यात आलेले 1,000 हून अधिक व्हिडिओ काढून टाकले.

अहवालानुसार, या व्हिडिओंना जवळपास 200 दशलक्ष व्ह्यूज मिळाले होते. या व्हिडिओवर वापरकर्ते आणि सेलिब्रिटी दोघांकडूनही वारंवार तक्रार नोंदवण्यात येत होती. YouTube ने म्हटले आहे की या समस्येची त्यांना पूर्णपणे जाणीव असून सेलिब्रिटी डीपफेक्सचा प्रसार रोखण्यासाठी कंपनी सक्रियपणे काम करत आहे. (हेही वाचा - Alia Bhatt Deepfake Video Viral: कतरिना कैफनंतर आलिया भट्टचा डीपफेक व्हिडिओ व्हायरल)

या महिन्याच्या सुरुवातीला, YouTube ने AI-व्युत्पन्न सामग्रीवर कारवाई करण्याची आपली योजना जाहीर केली. या संदर्भात प्लॅटफॉर्मने आपली सायबर धोरणे अपडेट केली आहेत. अहवालात सांगण्यात आलं आहे की, काही सामग्री निर्माते मृत किंवा हरवलेल्या मुलांचे व्हिडिओ AI तंत्रज्ञानाच्या माध्यमातून पुन्हा करत आहेत. (हेही वाचा - Sachin Tendulkar Deepfake Video: सचिन तेंडुलकरचा डिपफेक व्हिडिओ व्हायरल, अशा व्हिडिओना रिपोर्ट करण्याचे मास्टर ब्लास्टरचे आवाहन)

दरम्यान, YouTube ने स्पष्ट केले आहे की, या धोरणाचे उल्लंघन करणारी कोणतीही सामग्री काढून टाकली जाईल तसेच यासंदर्भात निर्मात्यांना ईमेलद्वारे सूचित केले जाईल. तथापी, सायबर सिक्युरिटी फर्म डीपट्रेसच्या मते, जवळपास 96% डीपफेक हे पोर्नोग्राफिक स्वरूपाचे असतात. यापैकी बहुतांश महिलांना लक्ष्य करण्यात येत आहे.