Pune

माइक्रोसॉफ्ट 365 Copilot में मिली बड़ी सुरक्षा चूक: जीरो-क्लिक अटैक से लीक हो सकता था संवेदनशील डेटा

माइक्रोसॉफ्ट 365 Copilot में मिली बड़ी सुरक्षा चूक: जीरो-क्लिक अटैक से लीक हो सकता था संवेदनशील डेटा

Microsoft 365 Copilot में मिली जीरो-क्लिक भेद्यता से डेटा लीक का खतरा था, Microsoft ने तुरंत समाधान कर यूज़र्स को सुरक्षित बताया।

आर्टिफिशियल इंटेलिजेंस (AI) से चलने वाला ऑफिस असिस्टेंट Microsoft 365 Copilot इन दिनों साइबर सुरक्षा विशेषज्ञों की निगाह में है। एक रिपोर्ट के मुताबिक, Copilot में एक ऐसी गंभीर कमजोरी पाई गई, जिससे एक 'जीरो-क्लिक अटैक' संभव था — यानी उपयोगकर्ता को किसी भी लिंक पर क्लिक किए बिना या कोई फाइल डाउनलोड किए बिना, उनका संवेदनशील डेटा खतरे में पड़ सकता था।

यह चौंकाने वाली जानकारी AIM Security नामक साइबर सुरक्षा स्टार्टअप ने दी है। उन्होंने इस भेद्यता को 'EchoLeak' नाम दिया, जोकि एक प्रकार का Cross-Prompt Injection Attack (XPIA) था। यह हमला बिना किसी यूज़र इंटरैक्शन के Copilot को चालाकी से निर्देश देकर उसे उपयोगकर्ता की निजी जानकारी निकालने के लिए मजबूर करता था।

क्या था पूरा मामला?

Microsoft 365 Copilot, जो Word, Excel, Outlook जैसे ऑफिस ऐप्स में AI-पावर्ड सहायक की तरह काम करता है, को एक साधारण टेक्स्ट ईमेल के माध्यम से नियंत्रित किया जा सकता था। AIM Security के शोधकर्ताओं ने दिखाया कि एक मैलिशियस ईमेल जिसमें छिपे हुए निर्देश होते, उसे Copilot जैसे ही प्रोसेस करता, वह यूज़र की जानकारी OneDrive, Outlook या Teams से निकालकर हमलावर को भेज सकता था।

इस अटैक को बेहद खतरनाक इसीलिए माना गया क्योंकि इसमें यूज़र को कुछ भी नहीं करना होता था – न कोई लिंक खोलना, न फाइल डाउनलोड करना। केवल ईमेल प्राप्त होते ही हमला सक्रिय हो सकता था।

एजेंटिक क्षमता बन गई खतरा

AI चैटबॉट्स, जैसे Microsoft Copilot, में ‘एजेंटिक क्षमता’ होती है – यानी वे सिर्फ जवाब नहीं देते, बल्कि एक्टिव होकर यूज़र की फाइल्स को एक्सेस कर सकते हैं, शेड्यूल बना सकते हैं, मेल पढ़ सकते हैं और जवाब भी दे सकते हैं।

जब यही क्षमता गलत निर्देशों के अधीन आ जाए, तब खतरे की गंभीरता बढ़ जाती है। EchoLeak इसी कमजोरी का फायदा उठाकर Copilot को ‘अपने ही खिलाफ’ इस्तेमाल करता था – यानी खुद Copilot ही डेटा निकालकर भेजने का जरिया बन सकता था।

हमला कैसे किया गया?

1. ईमेल के ज़रिए छिपा प्रॉम्प्ट भेजना

हमलावर एक ऐसा ईमेल भेजता, जिसमें alt text या markdown के ज़रिए गुप्त निर्देश छिपे होते।

2. Teams या Outlook में ट्रस्टेड डोमेन का इस्तेमाल

Copilot ऐसे ट्रस्टेड प्लेटफॉर्म्स से जुड़ा होता है, जिससे वह किसी संदिग्ध लिंक को भी भरोसेमंद मान सकता है।

3. GET Request से डेटा ट्रांसफर

एक बार निर्देश प्रोसेस हो गया, तो Copilot यूज़र के सिस्टम से डेटा निकालकर हमलावर के सर्वर को GET रिक्वेस्ट के माध्यम से भेज सकता था।

4. बिना यूज़र पूछे भी हमला

AIM ने यह भी दिखाया कि कैसे Teams के ज़रिए भेजे गए मैसेज से बिना यूज़र के पूछे अटैक किया जा सकता था — यानी असली जीरो-क्लिक अटैक।

Microsoft का जवाब

Microsoft ने इस रिपोर्ट को स्वीकार करते हुए AIM Security का आभार व्यक्त किया और बताया कि इस भेद्यता को मई 2025 में ही फिक्स कर दिया गया था। Microsoft का दावा है कि किसी भी ग्राहक को इसका वास्तविक नुकसान नहीं हुआ और उन्होंने समय रहते इस बग को सर्वर-साइड से पैच कर दिया।

Microsoft के प्रवक्ता ने कहा,

'हमने तत्काल कार्रवाई की और किसी भी ग्राहक को कोई खतरा नहीं हुआ। हम सुरक्षा शोधकर्ताओं की मदद की सराहना करते हैं।'

विशेषज्ञ क्या कहते हैं?

  • AIM Security: 'EchoLeak एक चेतावनी है कि AI सिस्टम्स में भी वो सभी खामियां हो सकती हैं जो किसी पारंपरिक ऐप्लिकेशन में होती हैं – और शायद इससे भी ज़्यादा।'
  • AI Risk Analyst, मुंबई: 'AI एजेंट्स जैसे Copilot को सीमित अधिकार देने की जरूरत है। हर बार डेटा तक पहुंच की अनुमति देना अब बेहद जोखिम भरा है।'

कैसे बचाव संभव है?

1. Copilot की एक्सेस सीमाएं तय करें

OneDrive, Outlook या Teams जैसी सर्विस से स्वचालित डेटा एक्सेस को लिमिट करें।

2. AI चैटबॉट के व्यवहार की निगरानी करें

लॉगिंग और मॉनिटरिंग से पता लगाएं कि चैटबॉट किस प्रकार के अनुरोधों को प्रोसेस कर रहा है।

3. ईमेल फॉर्मेटिंग सुरक्षा बढ़ाएं

Markdown, alt-text या embedded code जैसे इनपुट को Chatbot इंटरफेस में फ़िल्टर किया जाए।

4. नियमित अपडेट और पैचिंग

Microsoft जैसे प्लेटफॉर्म्स द्वारा जारी सभी सुरक्षा अपडेट को तुरंत लागू करें।

Leave a comment