AI in Healthcare : ChatGPT से डॉक्टरी सलाह लेना कितना सुरक्षित शीर्ष डॉक्टरों ने किया साफ, AI एक टूल है, डॉक्टर नहीं

Post

News India Live, Digital Desk: AI in Healthcare : तेजी से विकसित हो रही कृत्रिम बुद्धिमत्ता (AI) के युग में, ChatGPT जैसे बड़े भाषा मॉडल (LLMs) स्वास्थ्य संबंधी प्रश्नों का उत्तर देने की अपनी क्षमता से लोगों को अचंभित कर रहे हैं। कई लोगों को लगता है कि ये चैटबॉट्स स्वास्थ्य से जुड़ी समस्याओं के लिए तत्काल समाधान दे सकते हैं, लेकिन क्या इन पर आँख मूँदकर भरोसा करना सुरक्षित है? शीर्ष डॉक्टरों और विशेषज्ञों का जवाब एक स्वर में स्पष्ट है: ChatGPT चिकित्सकीय सलाह का विकल्प नहीं हो सकता है, बल्कि यह केवल एक सहायक उपकरण है, और वो भी अत्यधिक सावधानी के साथ उपयोग करने के लिए।

हाल के अध्ययनों और चिकित्सा विशेषज्ञों की राय बताती है कि ChatGPT या किसी अन्य AI चैटबॉट से सीधे व्यक्तिगत चिकित्सकीय सलाह लेना खतरनाक हो सकता है।

विशेषज्ञों की प्रमुख राय और चेतावनी:

सटीकता का अभाव: डॉ. आमेर खान, जो रीजेनरेटिव मेडिसिन के विशेषज्ञ और लंदन के हार्ले स्ट्रीट स्किन क्लिनिक के सह-संस्थापक हैं, का कहना है कि AI पैटर्न पहचान में तो उत्कृष्ट है, लेकिन यह “विशिष्ट प्रस्तुतियों या दुर्लभ स्थितियों से जूझ सकता है जिनमें गहन नैदानिक निर्णय की आवश्यकता होती है।” एक अन्य अध्ययन में पाया गया कि ChatGPT-3.5 150 मेडिकल मामलों में से केवल 49% में सही निदान और उपचार योजना प्रदान कर सका, जो इसे एक अविश्वसनीय उपकरण बनाता है।[5] वहीं, एक और अध्ययन में ChatGPT-4 के उत्तरों में 28.6% सटीकता, 28.6% त्रुटि और 42.8% आंशिक सटीकता पाई गई।[8]
संदर्भ और सहानुभूति की कमी: मानव चिकित्सकों के विपरीत, AI में रोगी की अनूठी परिस्थितियों की सहज समझ और सूक्ष्म ज्ञान की कमी होती है, जो सटीक निदान और उपचार के लिए महत्वपूर्ण हो सकता है।[1] AI किसी भी भावनात्मक या शारीरिक संदर्भ को नहीं समझता है, और रोगी के इतिहास, मामूली लक्षणों या दुर्लभ विकारों को छोड़ सकता है जिन पर उसे प्रशिक्षित नहीं किया गया है। एक अध्ययन में पाया गया कि मरीज AI के उत्तरों को अधिक सहानुभूतिपूर्ण पाते हैं, लेकिन वे उन उत्तरों में संभावित खतरों को पहचानने में सक्षम नहीं होते हैं।
पक्षपात और 'मतिभ्रम' का जोखिम: AI प्रणालियों को जिस डेटा पर प्रशिक्षित किया जाता है, उसमें मौजूदा स्वास्थ्य देखभाल पूर्वाग्रह झलक सकता है, जिससे कुछ विशेष जनसांख्यिकी (जैसे पश्चिमी, पुरुष, या धनी रोगियों) के लिए यह गलत प्रदर्शन कर सकता है। AI सिस्टम कभी-कभी "मतिभ्रम" पैदा कर सकते हैं, जिसमें वे ऐसे उत्तर उत्पन्न करते हैं जो वास्तविक डेटा पर आधारित नहीं होते हैं। उदाहरण के लिए, एक बार AI ने उपयोगकर्ताओं को खनिजों के लिए पत्थर खाने की सलाह दी थी। 


व्यक्तिगत देखभाल का अभाव: डॉक्टर यह बात जोर देकर कहते हैं कि AI वैयक्तिकृत देखभाल प्रदान नहीं कर सकता।[6] एआई-जनित सिफारिशें "मानवीय विशेषज्ञता और नैदानिक अंतर्ज्ञान" को किनारे कर सकती हैं।[1] डॉ. मैकलीन जैसे विशेषज्ञों का कहना है कि AI "आपके लिए नहीं है। यह 10,000 या अधिक [लोगों] के लिए है," जिसका अर्थ है कि यह व्यक्तिगत आवश्यकताओं के अनुसार सलाह नहीं देता।
जिम्मेदारी का सवाल: जब AI कोई गलती करता है, तो जवाबदेही की स्पष्ट रेखा नहीं होती है क्या डेवलपर जिम्मेदार है? अस्पताल? या मशीन?
जरूरत से ज्यादा भरोसा: AI के सबसे बड़े खतरों में से एक यह भी है कि लोग उस पर बहुत ज़्यादा भरोसा करते हैं। मेडिकल प्रोफेशनल भी एल्गोरिथम के निष्कर्ष पर अपनी राय से उलट भरोसा कर सकते हैं।[9]
डेटा गोपनीयता चिंताएँ: AI-संचालित चिकित्सा उपकरणों को बड़ी मात्रा में संवेदनशील डेटा की आवश्यकता होती है, जिससे रोगी की गोपनीयता खतरे में पड़ सकती है और डेटा के दुरुपयोग की संभावना

कैसे करें ChatGPT का उपयोग?

हालांकि, कई डॉक्टर यह स्वीकार करते हैं कि AI, डॉक्टरों के लिए एक सहायक उपकरण के रूप में काम आ सकता है और मरीजों को स्वास्थ्य संबंधी जानकारी को बेहतर ढंग से समझने में मदद कर सकता है। डॉ. आमेर खान कहते हैं कि AI के स्वास्थ्य सेवा में कई लाभ हैं, जिनमें बेहतर निदान क्षमताएं और रोगी देखभाल के लिए भविष्य कहनेवाला विश्लेषण शामिल है।इसे डॉक्टर की सलाह को सत्यापित करने और चिकित्सीय नियुक्ति के बाद आश्वासन प्रदान करने के लिए एक उपयोगी उपकरण के रूप में देखा जा सकता है।

अस्पताल और क्लीनिकल निर्णय में इसका उपयोग:
कुछ अध्ययनों से यह भी सामने आया है कि ChatGPT चिकित्सकों की तुलना में रोगियों को स्वास्थ्य संबंधी प्रश्नों में बेहतर सहायता करने में सक्षम हो सकता है, कम से कम वेब-आधारित लिखित सलाह के संदर्भ में। हालाँकि, यह परिणाम केवल विशिष्ट अध्ययन डिज़ाइन पर आधारित है और सभी स्वास्थ्य देखभाल सेटिंग्स के लिए मान्य नहीं हो सकता है। इसके अतिरिक्त, एआई मॉडल बोर्ड परीक्षाओं में चिकित्सक-स्तर के प्रदर्शन तक पहुँच चुके हैं और वे रोगियों द्वारा पूछे गए चिकित्सा प्रश्नों का उत्तर देने में भी चिकित्सक-स्तर के प्रदर्शन तक पहुँच सकते हैं।

मुख्य सलाह:
किसी भी AI चैटबॉट से मिली जानकारी को हमेशा एक योग्य स्वास्थ्य देखभाल पेशेवर से सत्यापित करना महत्वपूर्ण है। AI को "डॉक्टर के प्रतिस्थापन" के रूप में नहीं, बल्कि एक अतिरिक्त संसाधन के रूप में देखा जाना चाहिए। आपातकालीन स्थितियों में कभी भी AI का उपयोग न करें; हमेशा 911 या स्थानीय आपातकालीन सेवाओं पर कॉल करें। बच्चों के लिए चिकित्सा सलाह के लिए ChatGPT का उपयोग विशेष रूप से न करें, क्योंकि यह बाल चिकित्सा में खराब पाया गया है

कुल मिलाकर, जबकि AI स्वास्थ्य सेवा के क्षेत्र में क्रांति लाने की अपार क्षमता रखता है, यह मानवीय अंतर्ज्ञान, संदर्भ और सहानुभूति का विकल्प नहीं हो सकता है जो एक डॉक्टर प्रदान करता है। रोगियों और डॉक्टरों दोनों को AI से मिली जानकारी का उपयोग करते समय अत्यधिक सावधानी और विवेक बरतना चाहिए।

--Advertisement--

--Advertisement--