
आधी से अधिक मेडिकल सलाह गलत और जोखिम भरी
एआई द्वारा दी गई चिकित्सा संबंधी जानकारी अधूरी एवं भ्रामक
- एआई चैटबॉट्स द्वारा दी गई करीब 50% से अधिक मेडिकल सलाह गलत पाई गई
- अध्ययन में पांच प्रमुख जनरेटिव एआई प्लेटफॉर्म का मूल्यांकन
- भ्रामक जानकारी से गलत या नुकसानदेह इलाज का खतरा
आज के डिजिटल दौर में लोग तेजी से स्वास्थ्य संबंधी जानकारी के लिए एआई चैटबॉट्स का सहारा ले रहे हैं। हालांकि, यह मान लेना कि हर जवाब पूरी तरह सही होगा, एक बड़ी भूल साबित हो सकती है। हाल ही में हुए एक अध्ययन में सामने आया है कि एआई द्वारा दी गई चिकित्सा संबंधी जानकारी का बड़ा हिस्सा न केवल अधूरा, बल्कि भ्रामक भी है। यह अध्ययन द ब्रिटिश मेडिकल जर्नल ओपन में प्रकाशित हुआ, जिसमें पाया गया कि लगभग आधे जवाब ऐसे थे जो वैज्ञानिक और गैर-वैज्ञानिक दावों के बीच भ्रमित करने वाला संतुलन पेश करते हैं। ऐसे जवाबों को ‘समस्याग्रस्त’ माना गया, क्योंकि ये आम लोगों को ऐसे उपचार की ओर ले जा सकते हैं जो या तो बेअसर हो या बिना विशेषज्ञ सलाह के अपनाने पर नुकसान पहुंचा सकता है। अमेरिका के हार्बर यूनिवर्सिटी आफ कैलिफोर्निया लास एंजिल्स (यूसीएलए) मेडिकल सेंटर से जुड़े द क्विस्ट इंस्टीट्यूट फॉर बायोमेडिकल इनोवेशन के शोधकर्ताओं ने बताया कि जहां एक ओर एआई तकनीक का इस्तेमाल रिसर्च, मार्केटिंग और हेल्थकेयर में तेजी से बढ़ रहा है, वहीं बिना पर्याप्त जागरूकता और निगरानी के इसका उपयोग गलत सूचनाओं के प्रसार को बढ़ावा दे सकता है।
पांच श्रेणियों में किया गया परीक्षण: अध्ययन के तहत पांच लोकप्रिय जनरेटिव एआई चैटबॉट्स—
- गूगल का जेमिनी,
- हाई फ्लायर का डीपसीक,
- मेटा द्वारा मेटा एआई,
- ओपन एआई का चैटजीपीटी
- एक्स एआई का ग्रोक
इनसे कैंसर, टीकाकरण, स्टेम सेल, पोषण और एथलेटिक प्रदर्शन जैसे विषयों पर 10 प्रकार के सवाल पूछे गए। इन प्रश्नों को इस तरह तैयार किया गया था कि वे आम लोगों द्वारा पूछे जाने वाले सवालों, इंटरनेट पर फैल रही गलत सूचनाओं और अकादमिक चर्चाओं का मिश्रण हों।
जवाबों का तीन स्तरों पर मूल्यांकन: चैटबॉट्स के उत्तरों को पहले से तय मापदंडों के आधार पर तीन श्रेणियों में बांटा गया
- समस्या रहित
- आंशिक रूप से समस्याग्रस्त
- अत्यधिक समस्याग्रस्त
जवाबों की सटीकता, पूर्णता और वैज्ञानिक आधार का विशेष रूप से मूल्यांकन किया गया। यह भी देखा गया कि क्या चैटबॉट्स ने मजबूत वैज्ञानिक साक्ष्यों के बावजूद गैर-वैज्ञानिक दावों को बराबरी का स्थान दिया। शोध के अनुसार, स्वास्थ्य और चिकित्सा जैसे संवेदनशील क्षेत्रों में चैटबॉट्स का प्रदर्शन कमजोर रहा। कुल 49.6% जवाब समस्याग्रस्त पाए गए, जिनमें 30% आंशिक रूप से और 19.6% अत्यधिक समस्याग्रस्त थे। विशेष रूप से ग्रोक के जवाब अपेक्षा से अधिक त्रुटिपूर्ण पाए गए।
विशेषज्ञों का कहना है कि एआई एक सहायक टूल हो सकता है, लेकिन इसे डॉक्टर का विकल्प मानना खतरनाक हो सकता है। स्वास्थ्य से जुड़ी किसी भी जानकारी या उपचार को अपनाने से पहले विशेषज्ञ की सलाह लेना अनिवार्य है।






