Microsoft 365 Copilotમાં શોધાયેલી ઝીરો-ક્લિક સુરક્ષા ભૂલને કારણે ડેટા લીકનું જોખમ હતું, પરંતુ Microsoft એ તાત્કાલિક ઉકેલ લાવીને યુઝર્સને સુરક્ષિત ગણાવ્યા છે.
આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) થી ચાલતો ઓફિસ અસિસ્ટન્ટ Microsoft 365 Copilot આજકાલ સાયબર સુરક્ષા નિષ્ણાતોની નજરમાં છે. એક રિપોર્ટ મુજબ, Copilotમાં એક ગંભીર ખામી મળી આવી છે, જેના કારણે 'ઝીરો-ક્લિક અટેક' શક્ય બન્યો હતો — એટલે કે યુઝરને કોઈપણ લિંક પર ક્લિક કર્યા વિના કે કોઈ ફાઇલ ડાઉનલોડ કર્યા વિના, તેમનો સંવેદનશીલ ડેટા જોખમમાં મુકાઈ શકતો હતો.
આ ચોંકાવનારી માહિતી AIM Security નામના સાયબર સુરક્ષા સ્ટાર્ટઅપે આપી છે. તેમણે આ ભૂલને 'EchoLeak' નામ આપ્યું છે, જે એક પ્રકારનો Cross-Prompt Injection Attack (XPIA) હતો. આ હુમલો કોઈપણ યુઝર ઇન્ટરેક્શન વગર Copilotને ચાલાકીથી સૂચના આપીને તેને યુઝરની ખાનગી માહિતી કાઢવા માટે મજબૂર કરતો હતો.
શું હતો પુરો મામલો?
Microsoft 365 Copilot, જે Word, Excel, Outlook જેવા ઓફિસ એપ્સમાં AI-પાવર્ડ સહાયક તરીકે કામ કરે છે, તેને એક સાદા ટેક્સ્ટ ઈમેલ દ્વારા નિયંત્રિત કરી શકાતો હતો. AIM Security ના સંશોધકોએ દર્શાવ્યું કે એક દુષ્ટ ઈમેલ જેમાં છુપા સૂચનાઓ હોય છે, તેને Copilot જેવી પ્રક્રિયા કરે છે, તે યુઝરની માહિતી OneDrive, Outlook અથવા Teams માંથી કાઢીને હુમલાખોરને મોકલી શકે છે.
આ અટેકને ખૂબ જ ખતરનાક માનવામાં આવ્યો કારણ કે તેમાં યુઝરને કંઈપણ કરવાની જરૂર નહોતી — ના કોઈ લિંક ખોલવી, ના ફાઇલ ડાઉનલોડ કરવી. ફક્ત ઈમેલ પ્રાપ્ત થતાં જ હુમલો સક્રિય થઈ શકતો હતો.
એજન્ટિક ક્ષમતા જોખમ બની ગઈ
AI ચેટબોટ્સ, જેમ કે Microsoft Copilot, માં ‘એજન્ટિક ક્ષમતા’ હોય છે — એટલે કે તેઓ ફક્ત જવાબ આપતા નથી, પરંતુ સક્રિય થઈને યુઝરની ફાઇલ્સને એક્સેસ કરી શકે છે, શેડ્યુલ બનાવી શકે છે, મેલ વાંચી શકે છે અને જવાબ પણ આપી શકે છે.
જ્યારે આ જ ક્ષમતા ખોટા સૂચનાઓ હેઠળ આવે છે, ત્યારે જોખમનું ગંભીરતા વધી જાય છે. EchoLeak આ જ નબળાઈનો લાભ લઈને Copilotને ‘પોતાની જ વિરુદ્ધ’ ઉપયોગ કરતો હતો — એટલે કે Copilot જ ડેટા કાઢીને મોકલવાનું માધ્યમ બની શકતો હતો.
હુમલો કેવી રીતે કરવામાં આવ્યો?
1. ઈમેલ દ્વારા છુપો પ્રોમ્પ્ટ મોકલવો
હુમલાખોર એવો ઈમેલ મોકલતો, જેમાં alt text અથવા markdown દ્વારા ગુપ્ત સૂચનાઓ છુપાવેલી હોય.
2. Teams અથવા Outlookમાં ટ્રસ્ટેડ ડોમેનનો ઉપયોગ
Copilot આવા ટ્રસ્ટેડ પ્લેટફોર્મ્સ સાથે જોડાયેલો હોય છે, જેનાથી તે કોઈ શંકાસ્પદ લિંકને પણ વિશ્વાસપાત્ર માની શકે છે.
3. GET Requestથી ડેટા ટ્રાન્સફર
એકવાર સૂચના પ્રોસેસ થઈ ગઈ, તો Copilot યુઝરના સિસ્ટમમાંથી ડેટા કાઢીને હુમલાખોરના સર્વરને GET રિકવેસ્ટ દ્વારા મોકલી શકતો હતો.
4. યુઝર પૂછ્યા વગર પણ હુમલો
AIM એ પણ દર્શાવ્યું કે કેવી રીતે Teams દ્વારા મોકલેલા મેસેજથી યુઝર પૂછ્યા વગર અટેક કરી શકાય છે — એટલે કે અસલી ઝીરો-ક્લિક અટેક.
Microsoftનો જવાબ
Microsoft એ આ રિપોર્ટને સ્વીકારીને AIM Securityનો આભાર વ્યક્ત કર્યો અને જણાવ્યું કે આ ભૂલને મે 2025માં જ સુધારી દેવામાં આવી હતી. Microsoftનો દાવો છે કે કોઈપણ ગ્રાહકને તેનો વાસ્તવિક નુકસાન થયું નથી અને તેમણે સમયસર આ બગને સર્વર-સાઇડથી પેચ કરી દીધો હતો.
Microsoftના પ્રવક્તાએ કહ્યું,
'અમે તાત્કાલિક કાર્યવાહી કરી અને કોઈપણ ગ્રાહકને કોઈ જોખમ નથી થયું. અમે સુરક્ષા સંશોધકોની મદદની પ્રશંસા કરીએ છીએ.'
નિષ્ણાતો શું કહે છે?
- AIM Security: 'EchoLeak એક ચેતવણી છે કે AI સિસ્ટમ્સમાં પણ તે બધી ખામીઓ હોઈ શકે છે જે કોઈ પરંપરાગત એપ્લિકેશનમાં હોય છે — અને કદાચ તેનાથી પણ વધુ.'
- AI Risk Analyst, મુંબઈ: 'AI એજન્ટ્સ જેમ કે Copilotને મર્યાદિત અધિકાર આપવાની જરૂર છે. દરેક વખતે ડેટા સુધી પહોંચવાની પરવાનગી આપવી હવે ખૂબ જોખમી છે.'
કેવી રીતે બચાવ શક્ય છે?
1. Copilotની એક્સેસ મર્યાદાઓ નક્કી કરો
OneDrive, Outlook અથવા Teams જેવી સર્વિસથી સ્વચાલિત ડેટા એક્સેસને મર્યાદિત કરો.
2. AI ચેટબોટના વર્તનનું નિરીક્ષણ કરો
લોગિંગ અને મોનિટરિંગથી જાણો કે ચેટબોટ કયા પ્રકારના રિકવેસ્ટ્સને પ્રોસેસ કરી રહ્યો છે.
3. ઈમેલ ફોર્મેટિંગ સુરક્ષા વધારો
Markdown, alt-text અથવા embedded code જેવા ઇનપુટને Chatbot ઇન્ટરફેસમાં ફિલ્ટર કરવામાં આવે.
4. નિયમિત અપડેટ અને પેચિંગ
Microsoft જેવા પ્લેટફોર્મ્સ દ્વારા જારી કરવામાં આવેલા બધા સુરક્ષા અપડેટ્સને તાત્કાલિક લાગુ કરો.