Columbus

एआई स्वास्थ्य सलाह पर उठा सवाल: चैटजीपीटी के सुझाव से 60 वर्षीय व्यक्ति पहुंचा अस्पताल

एआई स्वास्थ्य सलाह पर उठा सवाल: चैटजीपीटी के सुझाव से 60 वर्षीय व्यक्ति पहुंचा अस्पताल

एक 60 वर्षीय व्यक्ति ने चैटजीपीटी की गलत सलाह पर सोडियम क्लोराइड की जगह सोडियम ब्रोमाइड का सेवन किया, जिससे उसे ब्रोमिज़्म हो गया। तीन महीने बाद गंभीर लक्षणों के कारण अस्पताल में भर्ती करना पड़ा।

Chatgpt: आर्टिफिशियल इंटेलिजेंस (AI) तकनीक पर बढ़ते भरोसे के बीच एक ताज़ा मामला सामने आया है, जिसने इसके उपयोग को लेकर गंभीर चिंताएं खड़ी कर दी हैं। हाल ही में प्रकाशित एक केस स्टडी में बताया गया है कि चैटजीपीटी से मिली गलत स्वास्थ्य सलाह के कारण एक 60 वर्षीय व्यक्ति गंभीर रूप से बीमार हो गया और उसे अस्पताल में भर्ती कराना पड़ा।

मामला कैसे शुरू हुआ

रिपोर्ट के अनुसार, मरीज का कोई पूर्व चिकित्सा या मानसिक स्वास्थ्य इतिहास नहीं था। वह स्वस्थ जीवनशैली अपनाने के लिए अपने आहार में बदलाव करना चाहता था और इस सिलसिले में उसने स्वास्थ्य जानकारी के लिए चैटजीपीटी से परामर्श किया। मरीज का दावा है कि AI चैटबॉट ने उसे सामान्य टेबल नमक (सोडियम क्लोराइड) के विकल्प के रूप में सोडियम ब्रोमाइड लेने की सलाह दी।

यह सलाह बिना किसी स्पष्ट चेतावनी या संभावित स्वास्थ्य जोखिम की जानकारी के दी गई थी। परिणामस्वरूप, व्यक्ति ने तीन महीने तक सोडियम ब्रोमाइड का सेवन किया, जिससे उसके शरीर में ब्रोमाइड की मात्रा खतरनाक स्तर तक बढ़ गई।

लक्षण और अस्पताल में भर्ती

तीन महीने बाद मरीज में गंभीर लक्षण दिखाई देने लगे—

  • लगातार प्यास लगना लेकिन पानी पीने से डरना
  • व्यामोह और मतिभ्रम (हैलुसिनेशन)
  • अनिद्रा और अत्यधिक थकान
  • मांसपेशियों के समन्वय में कमी (एटैक्सिया)
  • त्वचा में बदलाव जैसे मुँहासे और लाल धब्बेदार त्वचा (चेरी एंजियोमा)

स्थिति बिगड़ने पर उसे आपातकालीन कक्ष में भर्ती किया गया। प्रारंभिक जांच में डॉक्टरों को संदिग्ध विषाक्तता के संकेत मिले। ज़हर नियंत्रण विभाग से सलाह और विभिन्न परीक्षणों के बाद डॉक्टरों ने पुष्टि की कि मरीज को ब्रोमिज़्म नामक सिंड्रोम है। यह बीमारी लंबे समय तक ब्रोमाइड युक्त यौगिकों के सेवन से होती है।

केस स्टडी की अहम बातें

यह मामला Annals of Internal Medicine Clinical Cases नामक जर्नल में "आर्टिफिशियल इंटेलिजेंस के उपयोग से प्रभावित ब्रोमिज्म का मामला" शीर्षक से प्रकाशित हुआ।

  • शोधकर्ताओं ने स्पष्ट किया कि उनके पास चैटजीपीटी और मरीज के बीच हुई वास्तविक बातचीत का रिकॉर्ड नहीं था।
  • हालांकि चैटबॉट ने संदर्भ का उल्लेख किया, लेकिन यह स्पष्ट स्वास्थ्य चेतावनी नहीं दी कि यह पदार्थ लंबे समय तक सेवन के लिए खतरनाक हो सकता है।
  • शोधकर्ताओं का कहना है कि किसी भी पेशेवर डॉक्टर के विपरीत, चैटजीपीटी ने यह नहीं पूछा कि उपयोगकर्ता यह जानकारी क्यों मांग रहा है।

ओपनएआई का जवाब

इस मामले पर टिप्पणी करते हुए ओपनएआई के प्रवक्ता ने कहा कि उनके उत्पाद के टर्म्स ऑफ यूज़ में पहले से स्पष्ट उल्लेख है कि चैटजीपीटी के उत्तरों को 'तथ्यों का एकमात्र स्रोत' या 'पेशेवर सलाह का विकल्प' नहीं माना जाना चाहिए। कंपनी ने दोहराया कि AI चैटबॉट का उद्देश्य केवल सामान्य जानकारी प्रदान करना है, न कि चिकित्सा निर्णय लेना।

विशेषज्ञों की चेतावनी

शोधकर्ताओं और स्वास्थ्य विशेषज्ञों ने चेतावनी दी है कि—

  • AI चैटबॉट वैज्ञानिक अशुद्धियां पैदा कर सकते हैं — यह तकनीक कभी-कभी अधूरी, संदर्भ से बाहर या गलत जानकारी दे सकती है।
  • स्वास्थ्य जोखिम का विश्लेषण सीमित है — AI में जटिल चिकित्सा जोखिमों का मूल्यांकन करने की क्षमता नहीं होती।
  • गलत सूचना का खतरा — बिना विशेषज्ञ निगरानी के दी गई AI सलाह गंभीर स्वास्थ्य नुकसान का कारण बन सकती है।

इलाज और सुधार

मरीज को अस्पताल में भर्ती होने के बाद तत्काल दवा दी गई और ब्रोमाइड स्तर कम करने के लिए उपचार शुरू किया गया। तीन हफ्तों तक चले गहन इलाज के बाद उसकी स्थिति में सुधार आया और मानसिक लक्षण भी काफी हद तक समाप्त हो गए।

Leave a comment