मानवी नातेसंबंधांवर (Emotional Attachment) प्रगत AI व्हॉईस तंत्रज्ञानाच्या संभाव्य प्रभावाबद्दल ओपनएआयने (OpenAI) चिंता व्यक्त केली आहे. सॅन फ्रान्सिस्को-आधारित कंपनीने अलीकडेच त्याच्या ChatGPT-4o मॉडेलच्या वास्तववादी व्हॉइस वैशिष्ट्याशी संबंधित जोखमींवर प्रकाश टाकला आहे. ज्यामध्ये इशारा देण्यात आला आहे की, यामुळे वापरकर्त्यांना एआय (Artificial Intelligence) सोबत भावनिक बंध निर्माण होऊ शकतात. शक्यतो वास्तविक मानवी परस्परसंवादाच्या (Human Interaction) खर्चावर. जे अभासी असतील पण त्यात लोक गुंतून जातील.
मानववंशीकरणाचा धोका
गुरुवारी प्रसिद्ध झालेल्या एका अहवालात, OpenAI ने "मानवरूपीकरण" या घटनेची नोंद केली आहे. जिथे वापरकर्ते Artificial Intelligence मॉडेल्सना मानवासारखी वैशिष्ट्ये देतात. कंपनीने यावर जोर दिला की GPT-4o मॉडेलच्या उच्च-गुणवत्तेची ऑडिओ क्षमता हा प्रभाव अधिक तीव्र करू शकते, ज्यामुळे संभाव्यतः चुकीचा विश्वास आणि भावनिक जोड निर्माण होऊ शकते. ओपनएआयने म्हटले आहे की, "मानवीकरणामध्ये मानवासारखी वर्तणूक आणि एआय मॉडेल्ससारख्या अमानव घटकांना गुणधर्म देणे समाविष्ट आहे. हा धोका GPT-4o च्या ऑडिओ क्षमतेमुळे वाढू शकतो, जे मॉडेलसह अधिक मानवी-सदृश परस्परसंवाद सुलभ करते." (हेही वाचा, OpenAI SearchGPT: ओपनएआयने लाँच केले सर्च इंजिन 'सर्च जीपीटी'; Goggle शी करणार स्पर्धा)
भावनिक बंध आणि सामाजिक नियम
OpenAI ने अशा घटनांचे निरीक्षण केले जेथे AI च्या आवाज वैशिष्ट्याच्या परीक्षकांनी भावनिक बंधनाची चिन्हे दर्शविली, जसे की त्यांचा परस्परसंवाद संपुष्टात येत असल्याची खंत व्यक्त करणे. हे परस्परसंवाद निरुपद्रवी वाटत असले तरी, कंपनीने त्यांच्या दीर्घकालीन परिणामांचा अभ्यास करण्याची गरज मान्य केली. अहवालात असेही अनुमान लावले आहे की AI सह विस्तारित परस्परसंवाद सामाजिक नियमांवर प्रभाव टाकू शकतात. संभाव्यतः वापरकर्ते कमी कुशल किंवा इतर मानवांशी नातेसंबंध जोडण्यास प्रवृत्त करतात. (हेही वाचा, Meta Suspends Generative AI Tools: मेटा प्लॅटफॉर्मचा आर्टिफिशियल इंटेलिजन्स (एआय) टूल्स हटविण्याचा निर्णय)
AI अवलंबित्वाबद्दल चिंता
ओपनएआयने AI वर जास्त अवलंबून राहण्याच्या संभाव्यतेबद्दल चिंता व्यक्त केली आहे. विशेषत: तंत्रज्ञान अधिक तपशील लक्षात ठेवण्यात आणि कार्ये पार पाडण्यात पारंगत झाले आहे. सह-संस्थापक आणि AI अँटी-प्लेगियरिझम प्लॅटफॉर्म Copyleaks चे CEO अलोन यामीन या चिंतेला प्रतिध्वनीत करताना म्हणतात की, "AI कधीही वास्तविक मानवी संवादाची जागा असू नये."
व्हॉइस क्लोनिंग आणि चुकीची माहिती
अहवालात व्हॉईस क्लोनिंगचे धोके आणि AI ची चुकीची माहिती पसरवण्याची क्षमता यावरही प्रकाश टाकण्यात आला आहे. परीक्षक ChatGPT-4o मॉडेलला खोटी माहिती आणि षड्यंत्र सिद्धांतांची पुनरावृत्ती करण्यास प्रवृत्त करण्यास सक्षम होते, ज्यामुळे अशा क्षमतेच्या नैतिक परिणामांबद्दल चिंता निर्माण झाली.
संबंधित घटनेत, ओपनएआयला जूनमध्ये तिच्या चॅटबॉटमध्ये अभिनेत्री स्कारलेट जोहान्सनच्या आवाजासारखा आवाज वापरल्यानंतर प्रतिक्रियेचा सामना करावा लागला. कंपनीने जोहानसनचा आवाज वापरण्यास नकार दिला असला तरी, या घटनेने व्हॉईस क्लोनिंग तंत्रज्ञानाच्या आसपासच्या नैतिक चिंतेकडे लक्ष वेधले.