Move to Jagran APP

साइबर हमलों से बचाव का भारतीय वैज्ञानिकों ने निकाला रास्ता, जानें कैसे होंगे आप सुरक्षित

सोशल मीडिया के यूजर्स की गोपनीयता के लिए चुनौती बनकर उभरे फर्जी वीडियो से निपटने के लिए भारतीय मूल के वैज्ञानिकों ने तरीका निकाला है।

By Ayushi TyagiEdited By: Published: Mon, 22 Jul 2019 11:46 AM (IST)Updated: Mon, 22 Jul 2019 11:46 AM (IST)
साइबर हमलों से बचाव का भारतीय वैज्ञानिकों ने निकाला रास्ता, जानें कैसे होंगे आप सुरक्षित
साइबर हमलों से बचाव का भारतीय वैज्ञानिकों ने निकाला रास्ता, जानें कैसे होंगे आप सुरक्षित

नई दिल्ली, आइएएनएस। सोशल मीडिया के यूजर्स की गोपनीयता के लिए फर्जी वीडियो एक नई चुनौती बनकर उभर रहा है। इससे निपटने के लिए भारतीय मूल के शोधकर्ताओं ने आर्टिफिशियल इंटेलिजेंस (एआइ) का एक ऐसा ‘डीप न्यूरल नेटवर्क’ विकसित किया है, जो तस्वीरों या वीडियो फुटेज के साथ की गई छेड़छाड़ का आसानी से पता लगा सकता है।

loksabha election banner

वीडियो फुटेज के साथ छेड़छाड़ करना, किसी एक व्यक्ति के चेहरे के हाव-भावों को किसी दूसरे व्यक्ति के साथ बदल देना ‘डीपफेक वीडियो’ कहलाता है। यह ऐसे वीडियो होते हैं जिन्हें देखकर आप आसानी से अंदाजा नहीं लगा सकते कि वीडियो फुटेज में जो व्यक्ति दिख रहा है वह कोई और है। कई देशों में ऐसे वीडियो बनाकर लोग इनका प्रयोग एक राजनीतिक हथियार के रूप में भी कर रहे हैं, जो किसी भी व्यक्ति की पूरी जिंदगी की कमाई को महज कुछ ही पल के वीडियो के जरिये तबाह कर देते हैं।

यूनिवर्सिटी ऑफ कैलिफोर्निया, रिवरसाइड में इलेक्ट्रॉनिक एंड कंप्यूटर इंजीनियरिंग के प्रोफेसर अमित राय चौधरी के नेतृत्व में शोधकर्ताओं ने टीम अभी भी स्थिर चित्रों (इमेज) पर काम कर रही है, लेकिन उनके द्वारा बनाया गया नया सिस्टम ‘डीपफेक’ वीडियो की पहचान आसानी से कर सकता है। प्रोफेसर राय चौधरी ने कहा कि हमने एक ऐसा सिस्टम तैयार किया है जो छेड़छाड़ की गई इमेजों और सामान्य इमेजों के बीच का फर्क पहचान करता है। उन्होंने कहा कि यदि आप अभी हमें एक नई इमेज उपलब्ध कराएं तो हम इस सिस्टम की मदद से यह बता सकते हैं कि उस इमेज के साथ छेड़छाड़ की गई है या नहीं। यदि इमेज के साथ छेड़छाड़ की गई होगी तो यह भी पता लगाया जा सकता है कि इमेज के किन हिस्सों को बदला गया है।

‘डीप न्यूरल नेटवर्क’ वास्तविकता में एक कंप्यूटर सिस्टम ही है, जिसे एआइ शोधकर्ताओं ने विशिष्ट कार्यो के लिए प्रशिक्षित किया है। फेक वीडियो के मामले में यह नेटवर्क बदली हुई इमेजों की पहचान करता है। दरअसल, वीडियो वास्तविकता में स्थिर चित्रों का ही एक गतिशील रूप है, पर ये स्थिर चित्र वीडियो में परत-दर-परत इतनी तेजी से आगे बढ़ते हैं कि इन्हें आसानी से पहचान पाना संभव ही नहीं है। इस सिस्टम की मदद से अब यह पता लगाया जा सकता है कि वीडियो में किस इमेज के साथ-छेड़छाड़ की गई है। इस सिस्टम की मदद से वीडियो की संरचना और स्थिर चित्रों के बीच संबंध का पता लगाया जाता है। शोधकर्ताओं ने कहा कि किसी भी इमेज के साथ छेड़छाड़ करने पर उसके पिक्सल बदल जाते हैं। ऐसे में यदि उन्हीं इमेजों के जरिये वीडियो तैयार किया जाता है तो इस सिस्टम की मदद से उन्हें पकड़ा जा सकता है।

इस सिस्टम के परीक्षण के लिए शोधकर्ताओं ने एक इमेज का सेट तैयार किया। जब न्यूरल नेटवर्क सिस्टम के जरिये उसकी जांच की गई तो उसने आसानी से बदली हुई इमेजों को न सिर्फ पहचाना गया, बल्कि इमेज के जिन-जिन भागों को बदला गया था उन्हें भी चिन्हित कर दिया गया। यह अध्ययन आइईईई ट्रांजेक्शनंस ऑन इमेज प्रोसेसिंग जर्नल में प्रकाशित हुआ है। शोधकर्ताओं ने बताया कि इस सिस्टम की मदद से हम साइबर हमलों की चपेट में आने से बच सकते हैं।


Jagran.com अब whatsapp चैनल पर भी उपलब्ध है। आज ही फॉलो करें और पाएं महत्वपूर्ण खबरेंWhatsApp चैनल से जुड़ें
This website uses cookies or similar technologies to enhance your browsing experience and provide personalized recommendations. By continuing to use our website, you agree to our Privacy Policy and Cookie Policy.