नई दिल्ली, 11 अक्टूबर
आर्टिफिशियल इंटेलिजेंस (एआई) संचालित खोज इंजन और चैटबॉट हमेशा दवाओं पर सटीक और सुरक्षित जानकारी प्रदान नहीं कर सकते हैं, और मरीजों को इन पर भरोसा नहीं करना चाहिए, शुक्रवार को एक अध्ययन में चेतावनी दी गई।
कई उत्तर गलत या संभावित रूप से हानिकारक पाए जाने के बाद बेल्जियम और जर्मनी के शोधकर्ताओं ने अध्ययन किया।
बीएमजे क्वालिटी एंड सेफ्टी जर्नल में प्रकाशित पेपर में उन्होंने कहा कि एआई चैटबॉट द्वारा दिए गए उत्तरों की जटिलता को समझना मुश्किल हो सकता है और इसके लिए डिग्री स्तर की शिक्षा की आवश्यकता हो सकती है।
2023 में एआई-संचालित चैटबॉट्स सर्च इंजन की शुरुआत के साथ एक महत्वपूर्ण बदलाव आया। नवीनीकृत संस्करणों ने उन्नत खोज परिणाम, व्यापक उत्तर और एक नए प्रकार का इंटरैक्टिव अनुभव प्रदान किया।
फ्रेडरिक-अलेक्जेंडर-यूनिवर्सिटैट एर्लांगेन-नर्नबर्ग की टीम ने कहा कि चैटबॉट - पूरे इंटरनेट से व्यापक डेटासेट पर प्रशिक्षित - किसी भी स्वास्थ्य देखभाल से संबंधित प्रश्नों का उत्तर दे सकते हैं, वे गलत सूचना और निरर्थक या हानिकारक सामग्री उत्पन्न करने में भी सक्षम हैं। जर्मनी.
"इस क्रॉस-सेक्शनल अध्ययन में, हमने देखा कि एआई-संचालित चैटबॉट वाले खोज इंजन रोगी के सवालों के समग्र और सटीक उत्तर देते हैं," वे लिखते हैं।
“हालांकि, चैटबॉट के उत्तरों को पढ़ना काफी मुश्किल था और उत्तरों में बार-बार जानकारी की कमी होती थी या गलतियाँ दिखाई देती थीं, जिससे संभवतः रोगी और दवा की सुरक्षा को खतरा होता था,” वे आगे कहते हैं।
अध्ययन के लिए, शोधकर्ताओं ने 2020 में अमेरिका में शीर्ष 50 सबसे अधिक बार निर्धारित दवाओं पर प्रश्नों के लिए चैटबॉट उत्तरों की पठनीयता, पूर्णता और सटीकता का पता लगाया। उन्होंने एआई-संचालित चैटबॉट सुविधाओं के साथ एक खोज इंजन, बिंग कोपायलट का उपयोग किया।