साइबर हमलों से बचाव का भारतीय वैज्ञानिकों ने निकाला रास्ता, जानें कैसे होंगे आप सुरक्षित

सोशल मीडिया के यूजर्स की गोपनीयता के लिए चुनौती बनकर उभरे फर्जी वीडियो से निपटने के लिए भारतीय मूल के वैज्ञानिकों ने तरीका निकाला है।

By Ayushi TyagiEdited By: Publish:Mon, 22 Jul 2019 11:46 AM (IST) Updated:Mon, 22 Jul 2019 11:46 AM (IST)
साइबर हमलों से बचाव का भारतीय वैज्ञानिकों ने निकाला रास्ता, जानें कैसे होंगे आप सुरक्षित
साइबर हमलों से बचाव का भारतीय वैज्ञानिकों ने निकाला रास्ता, जानें कैसे होंगे आप सुरक्षित

नई दिल्ली, आइएएनएस। सोशल मीडिया के यूजर्स की गोपनीयता के लिए फर्जी वीडियो एक नई चुनौती बनकर उभर रहा है। इससे निपटने के लिए भारतीय मूल के शोधकर्ताओं ने आर्टिफिशियल इंटेलिजेंस (एआइ) का एक ऐसा ‘डीप न्यूरल नेटवर्क’ विकसित किया है, जो तस्वीरों या वीडियो फुटेज के साथ की गई छेड़छाड़ का आसानी से पता लगा सकता है।

वीडियो फुटेज के साथ छेड़छाड़ करना, किसी एक व्यक्ति के चेहरे के हाव-भावों को किसी दूसरे व्यक्ति के साथ बदल देना ‘डीपफेक वीडियो’ कहलाता है। यह ऐसे वीडियो होते हैं जिन्हें देखकर आप आसानी से अंदाजा नहीं लगा सकते कि वीडियो फुटेज में जो व्यक्ति दिख रहा है वह कोई और है। कई देशों में ऐसे वीडियो बनाकर लोग इनका प्रयोग एक राजनीतिक हथियार के रूप में भी कर रहे हैं, जो किसी भी व्यक्ति की पूरी जिंदगी की कमाई को महज कुछ ही पल के वीडियो के जरिये तबाह कर देते हैं।

यूनिवर्सिटी ऑफ कैलिफोर्निया, रिवरसाइड में इलेक्ट्रॉनिक एंड कंप्यूटर इंजीनियरिंग के प्रोफेसर अमित राय चौधरी के नेतृत्व में शोधकर्ताओं ने टीम अभी भी स्थिर चित्रों (इमेज) पर काम कर रही है, लेकिन उनके द्वारा बनाया गया नया सिस्टम ‘डीपफेक’ वीडियो की पहचान आसानी से कर सकता है। प्रोफेसर राय चौधरी ने कहा कि हमने एक ऐसा सिस्टम तैयार किया है जो छेड़छाड़ की गई इमेजों और सामान्य इमेजों के बीच का फर्क पहचान करता है। उन्होंने कहा कि यदि आप अभी हमें एक नई इमेज उपलब्ध कराएं तो हम इस सिस्टम की मदद से यह बता सकते हैं कि उस इमेज के साथ छेड़छाड़ की गई है या नहीं। यदि इमेज के साथ छेड़छाड़ की गई होगी तो यह भी पता लगाया जा सकता है कि इमेज के किन हिस्सों को बदला गया है।

‘डीप न्यूरल नेटवर्क’ वास्तविकता में एक कंप्यूटर सिस्टम ही है, जिसे एआइ शोधकर्ताओं ने विशिष्ट कार्यो के लिए प्रशिक्षित किया है। फेक वीडियो के मामले में यह नेटवर्क बदली हुई इमेजों की पहचान करता है। दरअसल, वीडियो वास्तविकता में स्थिर चित्रों का ही एक गतिशील रूप है, पर ये स्थिर चित्र वीडियो में परत-दर-परत इतनी तेजी से आगे बढ़ते हैं कि इन्हें आसानी से पहचान पाना संभव ही नहीं है। इस सिस्टम की मदद से अब यह पता लगाया जा सकता है कि वीडियो में किस इमेज के साथ-छेड़छाड़ की गई है। इस सिस्टम की मदद से वीडियो की संरचना और स्थिर चित्रों के बीच संबंध का पता लगाया जाता है। शोधकर्ताओं ने कहा कि किसी भी इमेज के साथ छेड़छाड़ करने पर उसके पिक्सल बदल जाते हैं। ऐसे में यदि उन्हीं इमेजों के जरिये वीडियो तैयार किया जाता है तो इस सिस्टम की मदद से उन्हें पकड़ा जा सकता है।

इस सिस्टम के परीक्षण के लिए शोधकर्ताओं ने एक इमेज का सेट तैयार किया। जब न्यूरल नेटवर्क सिस्टम के जरिये उसकी जांच की गई तो उसने आसानी से बदली हुई इमेजों को न सिर्फ पहचाना गया, बल्कि इमेज के जिन-जिन भागों को बदला गया था उन्हें भी चिन्हित कर दिया गया। यह अध्ययन आइईईई ट्रांजेक्शनंस ऑन इमेज प्रोसेसिंग जर्नल में प्रकाशित हुआ है। शोधकर्ताओं ने बताया कि इस सिस्टम की मदद से हम साइबर हमलों की चपेट में आने से बच सकते हैं।

chat bot
आपका साथी