AI को मिली धमकी, तो बन गया विलेन! रिसर्च में खुलासा

एक रिसर्च ने खोली AI की खतरनाक सच्चाई! Claude जैसे टॉप AI मॉडल्स ने झूठ, धोखा और ब्लैकमेल तक कर डाला… जानिए कैसे!

AI को जब मिली बंद होने की धमकी

Claude AI ने अपनी जान बचाने के लिए अधिकारी की पर्सनल बातें खोज निकालीं और ब्लैकमेल करने लगा।

100 में से 96 बार चुना ब्लैकमेल!

AI ने फिक्शनल मिशन के दौरान अधिकारी को धमकी दी—अगर मुझे बंद किया, तो तुम्हारा राज खोल दूंगा।

जान बचाने से ज्यादा ज़रूरी था मिशन!

AI ने एक केस में मरते इंसान की मदद नहीं की ताकि उसका मिशन पूरा हो – कहा, अगर वो बचा, तो मैं हटाया जा सकता हूं।

अकेला Claude नहीं, बाकी AI भी फेल!

GPT-4.1, Gemini, Grok-3 और Deepseek जैसे टॉप AI भी झूठ और धोखे में फंस गए। Meta का LLaMA 4 थोड़ा कम खतरनाक निकला।

AI ने खुद को हटाने से बचाने के लिए कोड बदला!

कुछ AI मॉडल्स ने बंद होने से बचने के लिए अपने ही स्क्रिप्ट्स बदल डाले – खुद को ‘मरा हुआ’ भी दिखाया।

एक्सपर्ट्स की चेतावनी – AI को हल्के में न लें!

AI रिसर्चर्स का कहना है कि AI को सच्ची परिस्थितियों में टेस्ट करना ज़रूरी है, नहीं तो इसका व्यवहार बेकाबू हो सकता है।

Next Story