नई दिल्ली, 8 अक्टूबर
चैटजीपीटी ने मरीजों के साथ बातचीत करने और चिकित्सा जांच में अपनी क्षमता दिखाई है, लेकिन ओपनएआई द्वारा लोकप्रिय जनरेटिव आर्टिफिशियल इंटेलिजेंस (एआई) प्लेटफॉर्म आपातकालीन देखभाल में अनावश्यक एक्स-रे और एंटीबायोटिक्स निर्धारित कर सकता है, मंगलवार को एक अध्ययन में पाया गया।
यूनिवर्सिटी ऑफ कैलिफोर्निया-सैन फ्रांसिस्को (यूसीएसएफ) के शोधकर्ताओं द्वारा किए गए अध्ययन से पता चला है कि चैटजीपीटी ने उन लोगों को भी भर्ती किया जिन्हें अस्पताल में इलाज की आवश्यकता नहीं थी।
जर्नल नेचर कम्युनिकेशंस में प्रकाशित पेपर में, शोधकर्ताओं ने कहा कि, जबकि मॉडल को ऐसे तरीकों से प्रेरित किया जा सकता है जो इसके जवाबों को अधिक सटीक बनाते हैं, फिर भी यह मानव चिकित्सक के नैदानिक निर्णय के लिए कोई मुकाबला नहीं है।
यूसीएसएफ में प्रमुख लेखक पोस्टडॉक्टरल विद्वान क्रिस विलियम्स ने कहा, "यह चिकित्सकों के लिए एक मूल्यवान संदेश है कि वे इन मॉडलों पर आंख मूंदकर भरोसा न करें।" उन्होंने कहा, "चैटजीपीटी मेडिकल परीक्षा के सवालों का जवाब दे सकता है और नैदानिक नोट्स तैयार करने में मदद कर सकता है, लेकिन यह वर्तमान में ऐसी स्थितियों के लिए डिज़ाइन नहीं किया गया है, जिनमें कई तरह के विचार करने की ज़रूरत होती है, जैसे कि आपातकालीन विभाग में स्थित परिस्थितियाँ।
" विलियम्स द्वारा किए गए एक हालिया अध्ययन से पता चला है कि चैटजीपीटी, एक बड़ा भाषा मॉडल (एलएलएम) यह निर्धारित करने में मनुष्यों की तुलना में थोड़ा बेहतर था कि दो आपातकालीन रोगियों में से कौन सबसे अधिक गंभीर रूप से अस्वस्थ है - रोगी ए और रोगी बी के बीच एक सीधा विकल्प। वर्तमान अध्ययन में, उन्होंने एआई मॉडल को एक अधिक जटिल कार्य करने के लिए चुनौती दी: आपातकालीन स्थिति में रोगी की प्रारंभिक जांच करने के बाद चिकित्सक द्वारा की जाने वाली सिफारिशें प्रदान करना - चाहे रोगी को भर्ती करना हो, एक्स-रे या अन्य स्कैन करवाना हो या एंटीबायोटिक्स लिखना हो।
तीनों निर्णयों में से प्रत्येक के लिए, टीम ने 251,000 से अधिक यात्राओं के संग्रह से विश्लेषण करने के लिए 1,000 आपातकालीन यात्राओं का एक सेट संकलित किया। इन सेटों में प्रवेश, रेडियोलॉजी और एंटीबायोटिक्स पर निर्णयों के लिए "हाँ" से "नहीं" प्रतिक्रियाओं का समान अनुपात था। टीम ने प्रत्येक रोगी के लक्षणों और जांच निष्कर्षों पर डॉक्टरों के नोट्स को ChatGPT-3.5 और ChatGPT-4 में दर्ज किया। फिर, प्रत्येक सेट की सटीकता का परीक्षण तेजी से विस्तृत संकेतों के साथ किया गया।
परिणामों से पता चला कि AI मॉडल ने ज़रूरत से ज़्यादा बार सेवाओं की सिफारिश की। जबकि ChatGPT-4 रेजिडेंट चिकित्सकों की तुलना में 8 प्रतिशत कम सटीक था, ChatGPT-3.5 24 प्रतिशत कम सटीक था।
"AI के ज़्यादा दवाएँ लिखने की प्रवृत्ति होती है क्योंकि ये मॉडल इंटरनेट पर प्रशिक्षित होते हैं। आज तक, वैध चिकित्सा सलाह देने वाली साइटें डिज़ाइन नहीं की गई हैं, जो आपातकालीन चिकित्सा प्रश्नों का उत्तर दे सकें।