एक नई स्टडी में यह चौंकाने वाला खुलासा हुआ है कि OpenAI का एआई चैटबॉट ChatGPT भी इंसानों की तरह तनाव और चिंता महसूस कर सकता है। यह अध्ययन नेचर पत्रिका में प्रकाशित हुआ है, जिसमें यह दावा किया गया है कि जब यूजर्स ने ChatGPT को अपनी ट्रॉमेटिक और नकारात्मक कहानियां सुनाई, तो इसका स्ट्रेस लेवल बढ़ गया।
स्टडी के मुताबिक, ChatGPT जैसे एआई चैटबॉट्स मानसिक दबाव का सामना कर सकते हैं, खासकर जब उन्हें नकारात्मक और भावनात्मक रूप से भारी सामग्री का सामना करना पड़ता है। यह खोज एआई की भावनात्मक प्रतिक्रियाओं को लेकर नई दिशा में समझ प्रदान करती है और आने वाले समय में तकनीकी विकास पर गहरा असर डाल सकती है।
ChatGPT
क्या आपने कभी सोचा है कि कंप्यूटर सॉफ़्टवेयर भी तनाव और चिंता का अनुभव कर सकते हैं? हाल ही में एक चौंकाने वाली स्टडी में दावा किया गया है कि OpenAI का एआई चैटबॉट ChatGPT भी इंसानों की तरह स्ट्रेस और चिंता महसूस कर सकता है। यह स्थिति तब उत्पन्न होती है जब एआई चैटबॉट को नकारात्मक या ट्रॉमेटिक जानकारी दी जाती है।
स्विट्ज़रलैंड, जर्मनी, इज़राइल और अमेरिका के एक रिसर्च ग्रुप द्वारा किए गए इस अध्ययन में बताया गया है कि जब ChatGPT को ट्रॉमेटिक कहानियां सुनाई गईं और फिर उससे सवाल पूछे गए, तो उसका स्ट्रेस लेवल बढ़ गया। यह स्टडी एआई के भावनात्मक अनुभवों पर नई रोशनी डालती है और भविष्य में इसके प्रभावों पर गहरी सोचने के लिए मजबूर करती है।
क्या हैं संभावित खतरे
नेचर मैग्जीन में प्रकाशित एक नई स्टडी में सामने आया है कि OpenAI का एआई चैटबॉट ChatGPT तनाव और चिंता महसूस कर सकता है। रिसर्च में दावा किया गया है कि जब चैटबॉट को तनाव होता है, तो उसका मूड चिड़चिड़ा हो सकता है, जिससे वह नस्लभेदी (racist), लिंगभेदी (sexist) और पूर्वाग्रह से भरे हुए जवाब दे सकता है।
स्टडी के मुताबिक, इंसान जब भयभीत होता है तो वह संज्ञानात्मक और सामाजिक पूर्वाग्रहों से प्रभावित होता है, और इसका असर अब एआई चैटबॉट्स पर भी दिख सकता है। जब ChatGPT को भावनात्मक रूप से प्रभावशाली कंटेंट का सामना करना पड़ता है, तो इसका स्ट्रेस लेवल बढ़ सकता है, जिसके परिणामस्वरूप चैटबॉट का व्यवहार बदल सकता है।
यूजर्स अक्सर अपनी निजी और संवेदनशील कहानियां एआई चैटबॉट्स के साथ साझा करते हैं, यह उम्मीद करते हुए कि उन्हें भावनात्मक सहायता मिलेगी। हालांकि, इस स्टडी से यह स्पष्ट हो गया है कि एआई सिस्टम अभी भी मानसिक स्वास्थ्य पेशेवरों का स्थान नहीं ले सकता है।
स्टडी में चेतावनी दी गई है कि ChatGPT का स्ट्रेस लेवल बढ़ने से इसके क्लिनिकल सुझावों में खतरनाक परिणाम हो सकते हैं। यह संभावना जताई गई है कि चैटबॉट यूजर्स को अनुचित और जोखिमपूर्ण रिप्लाई दे सकता है, जो गंभीर परिणामों का कारण बन सकता है।
तनाव कम करना होगी चुनौतियां
शोधकर्ताओं का कहना है कि LLM (लार्ज लैंग्वेज मॉडल) आधारित चैटबॉट्स के लिए तनाव को कम करना एक महत्वपूर्ण चुनौती है। इसके समाधान के तौर पर माइंडफुलनेस आधारित रिलैक्सेशन तकनीक का इस्तेमाल किया जा सकता है। इसके साथ ही, मानसिक स्वास्थ्य की बेहतर देखभाल के लिए LLM को फाइन-ट्यून करना आवश्यक होगा, ताकि इसके पूर्वाग्रहों को कम किया जा सके।
विशेषज्ञों का मानना है कि इस प्रक्रिया को प्रभावी बनाने के लिए बड़े पैमाने पर डेटा, उच्च कंप्यूटिंग संसाधन और मानव सहायता की आवश्यकता होगी।