AI बना रहा नकली एक्सरे, मेडिकल जगत में भारी फ्रॉड का खतरा, डिपफेक कॉपी बन सकता है सबूत


Last Updated:

Deep fake X-ray so real: एक्स-रे हमारे शरीर के अंदर की टूट-फूट या गड़बड़ियों के बारे में पता चलता है. इसी आधार पर डॉक्टर इलाज करते हैं लेकिन क्या होगा अगर यह एक्स-रे ही गलत हो और इसमें टूट-फूट की गलत जानकारी हो. जाहिर है डॉक्टर भी इस गलत एक्सरे के आधार पर गलत इलाज करेंगे. इसमें मरीज की जान भी जा सकती है. एआई के जमाने में ऐसा हो रहा है. डीपफेक एक्सरे इतने असली जैसे लगते हैं कि इसे डॉक्टर भी पहचान पाने में असमर्थ होने लगे हैं. चिकित्सा जगत में इस खबर से बेचैनी है क्योंकि भविष्य में इसके कई घातक परिणाम सामने आ सकते हैं.

Zoom

यह हाथ में स्केफॉयड बोन में हेयरलाइन फ्रेक्चर का एक्सरे AI से बनाई गई है.

Deep fake X-ray : फर्ज कीजिए आप हड्डियों का एक्स-रे कराकर डॉक्टर को इसे दिखाने गए. डॉक्टर इसी एक्सरे के आधार पर आपका इलाज कर दिया. बाद में पता चला कि यह एक्सरे तो असली है ही नहीं. जरा सोचिए, इसका कितना घातक असर आप पर हो सकता है. एआई के जमाने में ऐसा बिल्कुल संभव है. एक बहुत बड़े अध्ययन में पाया गया है कि एआई की मदद से जो डीपफेक एक्सरे बने थे उन्हें डॉक्टर फर्क ही नहीं कर पाए. यानी कौन सा एक्सरे असली था और कौन सा डिपफेक यह डॉक्टर पहचान ही नहीं पाए. इस डिपफेक एक्सरे का बेहद गलत इस्तेमाल होने का खतरा है. एक तो इससे गलत इलाज हो सकता है दूसरा इससे कई तरह के फ्रॉड होने का खतरा है.

डीपफेक क्या होता है?
पहले यह जानिए कि डीपफेक होता क्या है. डीपफेक ऐसी वीडियो, फोटो, इमेज या ऑडियो फाइल होती है जो देखने में असली लगती है लेकिन असल में उसे एआई की मदद से बनाया या बदला गया होता है. अध्ययन के प्रमुख लेखक माइकल एयरडजमैन के अनुसार ये डीपफेक एक्स-रे इतने असली जैसे होते हैं कि रेडियोलॉजिस्ट जैसे विशेषज्ञ भी इन्हें पहचानने में धोखा खा सकते हैं, भले ही उन्हें पता हो कि एआई से बनी इमेज भी दिखाई जा रही हैं. इसे एआई के किसी भी प्लेटफॉर्म पर बनाया जा सकता है.

एआई जेनरेटेड एक्सरे से कितना खतरा
साइंस डेली में प्रकाशित रिपोर्ट के मुताबिक एआई द्वारा बनाए गए डीपफेक एक्स-रे अब इतने रियल होने लगे हैं कि वे डॉक्टरों और एआई सिस्टम दोनों को धोखा दे सकते हैं. अध्ययन में पाया गया कि रेडियोलॉजिस्ट नकली एक्सरे की तस्वीरों को पहचानने में अक्सर असफल रहे. रिपोर्ट में कहा गया है कि इससे फर्जी मेडिकल क्लेम लेने में इस्तेमाल किया जा सकता है. वही गलत एक्सरे के आधार गलत इलाज का जोखिम बढ़ सकता है. इस गलत एक्सरे से कोर्ट में फर्जी सबूत पेश किया जा सकता है. सबसे बड़ी चिंता यह है कि अगर हैकर्स अस्पताल के सिस्टम तक पहुंच गया तो वे पूरे मेडिकल रिकॉर्ड को खराब कर सकता है. मुश्किल यह है कि इसकी सत्यता पहचानने में अब तक कोई एआई टूल भी डेवलप नहीं हुआ है. इसलिए यह पूरे मेडिकल सिस्टम में गड़बड़ी की आशंका पैदा कर सकता है. विशेषज्ञों का कहना है कि जैसे-जैसे यह तकनीक आगे बढ़ रही है, वैसे-वैसे मजबूत सुरक्षा उपाय और पहचान करने वाले टूल विकसित करना बेहद जरूरी हो गया है. यह अध्ययन रेडियोलॉजिकल सोसाइटी ऑफ नोर्थ अमेरिका में प्रकाशित हुआ है.

स्टडी की जानकारी और इमेज टेस्टिंग
इस शोध में 6 देशों अमेरिका, फ्रांस, जर्मनी, तुर्की, यूके और यूएई के 12 संस्थानों से 17 रेडियोलॉजिस्ट शामिल थे. इनका 1 से 40 साल तक था. कुल 264 एक्स-रे इमेज का अध्ययन किया गया, जिनमें आधी असली और आधी एआई द्वारा बनाई गई थीं.अध्ययन में GPT 4.0 से बनाए गए छाती, गर्दन, हड्डी, कमर और हाथ के एक्सरे को रेडियोलॉजिस्ट को दिखाया गया. इसमें एआई की मदद से असली एक्सरे को दोबारा बनाने के लिए कहा गया था. अब तक रेडियोलॉजिस्ट को यह नहीं बताया गया था कि एक्सरे असली है या नकली. उन्हें इन एक्सरे का विश्लेषण करने को कहा गया था. इसके बाद रेडियोलॉजिस्ट एआई से बनाए गए नकली एक्सरे में सिर्फ 41 प्रतिशत एक्सरे को पहचान पाए कि ये नकली है. बाकी के 59 प्रतिशत एआई से बनी एक्सरे को पहचानने में गलत साबित हो गए. इसके बाद रेडियोलॉजिस्ट से बता दिया गया कि अब जो आपके सामने एक्सरे है उनमें एआई से बनाए गए और असली एक्सरे दोनों है. इसके बाद 75 प्रतिशत एआई से बनाए गए एक्सरे को रेडियोलॉजिस्ट ने पहचान लिए लेकिन 25 प्रतिशत को इसके बावजूद नहीं पहचान सके.

रोएंटजेन से बने एक्स-रे और सटीकता
रोएंटजने मॉडल से बने छाती के एक्स-रे में रेडियोलॉजिस्ट की पहचान क्षमता 62% से 78% के बीच रही, जबकि एआई मॉडल्स की सटीकता 52% से 89% तक पाई गई. इसमें सबसे बेहतर मस्कुलोस्केलेटल एक्सपर्ट ने पहचाना. यानी हड्डियों वाले डिपफेक एक्सरे को ज्यादातर रेडियोलॉजिस्ट ने पहचान लिया. शोधकर्ताओं के अनुसार नकली मेडिकल इमेज अक्सर बहुत परफेक्ट दिखती हैं. हड्डियां ज्यादा स्मूथ, रीढ़ असामान्य रूप से सीधी, फेफड़े एक जैसे और ब्लड वेसल्स बहुत समान दिखते हैं. फ्रैक्चर भी जरूरत से ज्यादा साफ और एक ही हिस्से में सीमित दिखाई देते हैं.

आगे सीटी स्कैन और एमआरआई भी डिपफेक
अगर इन डीपफेक इमेज का गलत इस्तेमाल हुआ, तो फर्जी मेडिकल केस बन सकते हैं या अस्पताल के सिस्टम में छेड़छाड़ कर गलत निदान किया जा सकता है. इससे बचने के लिए विशेषज्ञ डिजिटल वॉटरमार्क और क्रिप्टोग्राफिक सिग्नेचर जैसे मजबूत सुरक्षा उपाय अपनाने की सलाह दे रहे हैं ताकि इमेज की असलियत की पुष्टि की जा सके. शोधकर्ता माइकल एरोदजमैन का कहना है कि यह तो सिर्फ शुरुआत है. आगे एआई 3D इमेज जैसे CT और MRI भी बना सकता है. इसलिए अभी से ट्रेनिंग, जागरुकता और पहचान करने वाले टूल्स विकसित करना बेहद जरूरी है.

About the Author

authorimg

Lakshmi Narayan

18 साल से ज्यादा के लंबे करियर में लक्ष्मी नारायण ने डीडी न्यूज, आउटलुक, नई दुनिया, दैनिक जागरण, हिन्दुस्तान जैसे प्रतिष्ठित संस्थानों में अपनी सेवाएं दी हैं। समसामयिक विषयों के विभिन्न मुद्दों, राजनीति, समाज, …और पढ़ें



Source link

Latest articles

spot_imgspot_img

Related articles

Leave a reply

Please enter your comment!
Please enter your name here

spot_imgspot_img