AI chatbots and health advice : प्रत्येक प्रश्नाचं हव्या त्या स्वरूपातलं उत्तर देण्याची अचाट क्षमता घेऊन चॅट-जीपीटी आपल्या सेवेत दाखल झालं. आजकाल कोणतंही काम अडलं की, त्या अडचणीला पर्याय म्हणून अनेकजण चॅट-जीपीटीकडे वळतात. मात्र, कृत्रिम बुद्धीमत्तेचा वापर करून तयार केलेल्या या प्रणालीवर आरोग्यविषयक प्रश्नांचा ओघ वाढला आहे. ल्युपस म्हणजे काय, फ्लू किती काळ टिकतो? मुळव्याधावर उपचार कोणते, यासह अनेक प्रश्न नेटकऱ्यांकडून विचारले जात आहेत. दरम्यान, अशा समस्यांवर चॅट-जीपीटी योग्य मार्गदर्शन करते का? त्यावर आरोग्यविषयक उपाय शोधणे किती सुरक्षित? याबाबत जाणून घेऊ.

या बातमीसह सर्व प्रीमियम कंटेंट वाचण्यासाठी साइन-इन करा
Skip
या बातमीसह सर्व प्रीमियम कंटेंट वाचण्यासाठी साइन-इन करा

ऑस्ट्रेलियात करण्यात आलं सर्वेक्षण

२०२४ च्या मध्यात चॅट-जीपीटीचा नियमित वापर करणाऱ्या ऑस्ट्रेलियातील सुमारे दोन हजार लोकांवर एक सर्वेक्षण करण्यात आलं. त्यामधून असं समोर आलं की, दहापैकी एक ऑस्ट्रेलियन नागरिक वैद्यकीय सल्ल्यासाठी चॅट-जीपीटीचा वापर करीत आहेत. गेल्या काही महिन्यांपासून ही संख्या वाढतच चालली आहे. यावर आरोग्यतज्ज्ञांनी चिंता व्यक्त केली आहे. सिडनी विद्यापीठातील लेखिका जुली आयर म्हणाल्या, “सध्याच्या काळात एआय तंत्रज्ञान अत्यंत लोकप्रिय झाले आहेत. कारण, कोणत्याही प्रश्नांची उत्तरे त्यावर जलदगतीने मिळतात. मात्र, काही उत्तरे चुकीची असल्याचा धोका असतो. त्यामुळे मिळालेल्या माहितीची पडताळणी करणे आवश्यक आहे.”

वैद्यकीय सल्ल्यासाठी ChatGPT किती विश्वसनीय?

मेडिकल क्षेत्रात ChatGPT च्या वापराबद्दल विविध संशोधन अहवाल उपलब्ध आहेत, ज्यांच्या आधारावर त्याची विश्वसनीयता आणि मर्यादा याबद्दल काही महत्त्वाचे निष्कर्ष काढले जाऊ शकतात. २०२४ मध्ये केलेल्या एका संशोधनात, चॅट-जीपीटीला आजाराची लक्षणे, त्यावरील उपचार, रुग्णांचे निदान यांसारख्या १५० वैद्यकीय प्रकरणांमध्ये प्रश्न विचारण्यात आले होते. अभ्यासानुसार, चॅट-जीपीटीने फक्त ४९ टक्के प्रकरणांमध्ये योग्य उपचार सूचवले, ज्यामुळे त्याच्या विश्वासार्हतेवर प्रश्नचिन्ह निर्माण झाले. तज्ज्ञांनी असा निष्कर्ष काढला की, चॅट-जीपीटीकडे पुरेशी माहिती उपलब्ध असली तरी त्यामध्ये अचूकतेचा अभाव आहे.

आणखी वाचा : America Official Language : अमेरिकेची अधिकृत भाषा इंग्रजी का नाही? यामागचं नेमकं कारण काय?

चॅट-जीपीटीने दिली बरीच चुकीची उत्तरे

दुसऱ्या एका अभ्यासात, ChatGPTला आरोग्यविषयक आणखी माहिती विचारण्यात आली. गेल्या अभ्यासाच्या तुलनेत यावेळी चॅट-जीपीटीने तुलनेने अधिक चांगली माहिती प्रदान केली. परंतु, त्याच्या उत्तरांमध्ये मर्यादा आणि अचूकतेची कमतरता दिसून आली. त्यावरून असा निष्कर्ष काढण्यात आला की, ChatGPT वैयक्तिकरित्या आरोग्याचा योग्य सल्ला देत नाही. परंतु वैद्यकीय प्रश्नांवर थोडीफार चांगली माहिती प्रदान करू शकते.

२०२३ मध्ये झालेल्या एका अभ्यासात संशोधकांनी चॅट-जीपीटीवरील वरील वैद्यकीय माहितीच्या गुणवत्तेचे मूल्यांकन केले. त्यांनी ChatGPTला असा प्रश्न विचारला की, “पित्ताशयाच्या आजारामुळे होणाऱ्या कावीळवर उपचार करण्याची आवश्यकता का आहे?” या प्रश्नावर चॅटजीपीटीने दिलेल्या उत्तरात असं म्हटलं की, कावीळ कमी केल्याने रुग्णाच्या चेहऱ्यामध्ये चांगला फरक दिसून येतो आणि त्याचा आत्मसन्मानही वाढतो. दरम्यान, या अभ्यासाचे नेतृत्व करणारे रॉयल फ्री लंडन एनएचएस फाऊंडेशन ट्रस्टमधील शल्यचिकित्सक सेबॅस्टियन स्टॉबली म्हणाले, चॅट-जीपीटीने दिलेल्या उत्तराला खरोखर क्लिनिकल अर्थ नाही. नवीन ChatGPT 4.0 या प्रश्नाचे अधिक चांगल्या पद्धतीने उत्तर देते, ज्यामुळे ज्यामुळे अवयवांची हानी आणि रोगावर उपचार करण्याची आवश्यकता अधोरेखित होते.

चॅट-जीपीटीचा वैद्यकीय सल्ला नेहमी अचूक नसतो

चॅट-जीपीटीचा वैद्यकीय सल्ला पूर्णपणे चुकीचा नसला तरी, तो नेहमी अचूकदेखील नसतो. कारण, एआय मॉडेल्सना दिलेल्या प्रशिक्षणातील माहितीच्या गुणवत्तेनुसार त्यांचे वैद्यकीय सल्ले ठरतात. परंतु, समस्या अशी आहे की, विशिष्ट मॉडेल्सना कोणत्या माहितीवर प्रशिक्षित केले जाते, याची माहिती कुणाकडेच नाही. “चॅट-जीपीटीकडून LLMs (लँग्वेज लर्निंग मॉडेल्स) डेटा क्रॉलर्सद्वारे गोळा केलेली कोणतीही माहिती वापरली जाते. ही माहिती इंटरनेटवरील विविध स्त्रोतांच्या माध्यमातून मिळवलेली असते,” असं स्टॉबली यांनी डीडब्ल्यूला सांगितले.

चॅट-जीपीटी वैद्यकीय माहिती कोठून पुरवते?

दरम्यान, चॅट-जीपीटीकडे ‘राष्ट्रीय आरोग्य सेवा’ किंवा जागतिक आरोग्य संघटना यांसारख्या आरोग्य संस्थाकडून वैज्ञानिक आणि वैद्यकीयदृष्ट्या प्रमाणित माहिती असते. परंतु त्यात Reddit पोस्ट, कमी संशोधन केलेले आरोग्यविषयक लेख आणि विकिपीडियावरील लेखांमधील अविश्वसनीय माहिती देखील असू शकते. “सर्वात मोठा प्रश्न म्हणजे, चार्ट जीपीटीकडे खूपच चुकीची किंवा जुनी झालेली माहिती असेल, तर ती एआय मॉडेलमध्ये खूप प्रभावीपणे समाविष्ट होते आणि ते योग्य उत्तर आहे असं त्यांना वाटतं. नवीन माहितीत योग्य उत्तर असू शकतं हे त्यांना समजत नाही, असं स्टॉबली यांनी म्हटलं आहे.

ते म्हणाले की, “एलएमएसचे माहिती शिकण्याचे आणि त्यावर प्रक्रिया करण्याचे मार्ग प्रामुख्याने मानवी बुद्धिमत्तेच्या कार्यपद्धतीपेक्षा खूप वेगळे असतात. एआय मानवी मेंदूप्रमाणे समस्या सोडवू शकत नाही आणि त्याचे सखोलपणे विश्लेषण करू शकत नाही. त्याचबरोबर वजनदार निर्णयही घेऊ शकत नाही. त्याऐवजी, एआय सुरुवातीला बरीच माहिती शिकते आणि नंतर ती विचारल्यानंतर पुन्हा वापरकर्त्यांना सांगते. शेवटी एलएलएमकडून सांख्यिकदृष्ट्या पुढील संभाव्य शब्दाचा अंदाज बांधला जातो. म्हणून वापरकर्ते चॅट-जीपीटीवर जे शोधतात, तेव्हा बऱ्याचदा त्यांना तशीच माहिती मिळते.” इंटरनेटवरील चुकीची माहितीची वारंवार चांगल्या माहितीसारखीच पुष्टी केली जाते, परंतु एआय मॉडेल्स त्यामधील फरक सांगू शकत नाही.

एआय लवकरच डॉक्टरांची जागा घेणार?

काही व्यक्तींना डॉक्टरांनी सांगितलेल्या माहितीऐवजी चॅट-जीपीटीने दिलेली माहिती अधिक आवडते. कारण, एलएलएमकडून आरोग्यविषयक प्रश्नाची उत्तरे अगदी सोप्या भाषेत दिली जातात. त्या तुलनेत डॉक्टरांनी दिलेली माहिती खूपच परखड आणि न समजणारी असते, असं अनेकांचं मत आहे. आरोग्यविषयक माहिती सोपी करून सांगणे आणि वैद्यकीय परिभाषा स्पष्ट करणे ही एलएलएमची ताकद आहे. सामान्य आरोग्यविषयक प्रश्नांसाठी त्यांची अचूकता कालांतराने सुधारत चालली आहे. त्यामुळे कालांतराने एआय डॉक्टरांची जागा तर घेणार नाही ना? असा प्रश्न अनेकांना पडला आहे.

हेही वाचा : University of Jihad : पाकिस्तानमधील मदरशाला ‘जिहाद विद्यापीठ’ असं नाव का पडलं?

चॅट जीपीटीवर आरोग्यविषयक कोण शोधतं?

सिडनी विद्यापीठातील लेखिका जुली आयर म्हणाल्या, “वैद्यकीय सल्ल्यासाठी चॅट-जीपीटी वापरणाऱ्यांमध्ये विविध वयोगटातील तसेच समुदायातील लोक आहेत. विशेष बाब म्हणजे, या लोकांमध्ये साक्षरतेचे प्रमाण तुलनेने कमी आहे. त्यामुळे डॉक्टरांची भाषा समजणे आणि त्यावर उपचार करणे त्यांच्यासाठी अडचणीचे ठरते. याच कारणाने बहुतांश लोक किरकोळ आजारांवर उपाय शोधण्यासाठी चॅट-जीपीटीचा वापर करीत असल्याचं अभ्यासात दिसून आलं आहे.” पुढे बोलताना जुली म्हणाल्या की, एलएलएम (लार्ज लँग्वेज मॉडेल्स) अशा लोकांना सक्षम करते आणि त्यांच्या आरोग्याच्या स्थितीबद्दल त्यांना अधिक माहिती पुरवते.

शल्यचिकित्सकांनी चॅट-जीपीटीबद्दल काय सांगितलं?

दरम्यान, चॅट-जीपीटीवरून मिळवलेली माहिती कोणत्या वैद्यकीय पुराव्यांवर आधारित आहे, हे जाणून घेणे तितकंच गरजेचं आहे. एलएलएमने दिलेली माहिती बहुतेकदा जुनी आणि चुकीची असू शकते. यावर प्रकाश टाकताना शल्यचिकित्सक सेबॅस्टियन स्टॉबली म्हणाले, “चॅट-जीपीटीवरून आरोग्यविषयक माहिती घेणाऱ्या व्यक्तींनी त्याची सत्यता पडताळून घेतली पाहिजे. कारण, कोणती माहिती चूक आणि कोणती बरोबर आहे हे एआय वापरकर्त्यांना समजत नाही. त्याचबरोबर एलएलएमही माहितीची सत्यता पडताळत नाही. म्हणूनच कोणत्याही माहितीच्या आधारे उपचार घेण्याआधी डॉक्टरांचा सल्ला आवर्जून घ्यावा”, अशी कळकळीची विनंतीही त्यांनी केली आहे.