Trending

    Move to Jagran APP
    pixelcheck
    विज्ञापन हटाएं सिर्फ खबर पढ़ें

    AI का इस्तेमाल कर Fake Video call कर रहे हैं स्कैमर्स, कहीं आपको भी तो नहीं आ रही ऐसी कॉल

    By Ankita PandeyEdited By: Ankita Pandey
    Updated: Sat, 03 Jun 2023 05:07 PM (IST)

    हाल ही में एक घटना सामने आई है जिसमें एक विडियो कॉल के जरिए 5 करोड़ रुपये का स्कैम किया गया। बता दें कि इसके लिए डीपफेक टेक्नोलॉजी का इस्तेमाल किया जा रहा है। आइये जानते है कि आप इससे कैसे बच सकते हैं।

    Hero Image
    Scammers using deepfake technology for fake video call, know how to be safe

    नई दि्ल्ली, टेक डेस्क। Ai टेक्नोलॉजी बीते कुछ महीनों में काफी लोकप्रिय हो गया हैं। जहां एक तरफ लोगों ने इसे पसंद किया है, वहीं दूसरी तरफ हैकर्स इसका गलत इस्तेमाल कर रहे हैं। हाल ही में एक ऐसी घटना सामने आई है, जिसमें स्कैमर्स लोगों के फेक वीडियो कॉल करके पैसे की मांग करते हैं।

    विज्ञापन हटाएं सिर्फ खबर पढ़ें

    इसके लिए स्कैमर्स डीपफेक टेक्नोलॉजी की इस्तेमाल करते हैं, जिसमें स्कैमर्स आपके किसी जानने वाली की शक्ल के साथ आपको वीडियो कॉल करता है और पैसे की मांग करता है। अगर आप इसके झांसे में आ जाते हैं तो आपको नुकसान हो सकता है।

    क्या है फेक वीडियो कॉल

    आजकल, लोग आमतौर पर दुनिया भर में अपने परिवार, दोस्तों या सहकर्मियों के साथ बातचीत करने के लिए वीडियो कॉल का विकल्प चुनते हैं। आप व्यक्ति के चेहरे, आवाज और परिवेश के बारे में पूरी तरह से अवगत हैं, लेकिन क्या होगा अगर आप वीडियो कॉल के दौरान कुछ अलग बैकग्राउंड, वीडियो आकार, वीडियो क्वालिटी, वॉटरमार्क, कॉन्टैक्ट जानकारी आदि जैसी कुछ असामान्य चीजे देखते हैं? हो सकता है कि आपको धोखा दिया जा रहा है।

    डीपफेक टेक्नोलॉजी के शिकार

    हां! बढ़ती तकनीक, विशेष रूप से आर्टिफिशियल इंटेलिजेंस ने जालसाजों के लिए विश्व स्तर पर निर्दोष लोगों के पैसे को ठगने के लिए और अधिक विश्वसनीय बना दिया है। इसी तरह की एक घटना उत्तरी चीन में हुई, जहां एक व्यक्ति डीपफेक तकनीक से जुड़े एआई-संचालित वीडियो कॉल घोटाले का शिकार हो गया।

    क्या डीपफेक तकनीक?

    डीपफेक एक ऐसी एआई-पावर्ड फेस-स्वैपिंग तकनीक है, जिसकी मदद से स्कैमर ने खुद एक वीडियो कॉल के दौरान पीड़ित के करीबी दोस्त के रूप में पेश करता है और उन्हें ठगने की कोशिश करता है।

    चीन में भी इसकी तकनीकी का इस्तेमाल कर एक व्यक्ति को 4.3 मिलियन युआन (5 करोड़ रुपये से अधिक) की राशि ट्रांसफर करने के लिए राजी किया। यह घटना चीन के बाओटौ में हुई। पीड़ित को ठगे जाने का एहसास तब हुआ जब उसके असली दोस्त ने कॉल के बारे में बताया।

    रॉयटर्स द्वारा प्रकाशित एक रिपोर्ट के अनुसार, एक आधिकारिक बयान में, स्थानीय पुलिस ने खुलासा किया कि वे चोरी किए गए अधिकांश धन को बरामद करने में कामयाब रहे और शेष राशि का पता लगाने के लिए लगन से काम कर रहे हैं। एआई-संचालित घोटालों के बढ़ते खतरे के बाद, चीन सक्रिय रूप से ऐसी तकनीक की जांच कर रहा है और पीड़ितों को कानूनी सुरक्षा देने के लिए इस साल जनवरी में नए नियम लागू किए हैं।

    कैसे लगाएं ऐसी कॉल का पता

    अब यह सवाल उठता है कि फर्जी वीडियो कॉल का पता कैसे लगाया जाए। इन मुद्दों से बचने के लिए कुछ तरकीबें हैं- जैसे नकली कॉन्टैक्ट नंबर, नकली नाम, असामान्य बैकग्राउंड, आदि। एक नकली वीडियो कॉल के बारे में छोटे संकेतों को प्रदर्शित करते हैं। आइये इसके बारे में जानते है।

    वीडियो की क्वालिटी: अगर आप देखें तो नकली वीडियो की गुणवत्ता आमतौर पर खराब होती है। हमेशा वॉटरमार्क या अन्य संकेतों की जांच करें क्योंकि नकली वीडियो ऑनलाइन सोर्स से आता है।

    कॉन्टैक्ट की जानकारी: आपको यह जांचना चाहिए कि क्या आपकी कॉन्टैक्ट लिस्ट में आपको कॉल करने वाला व्यक्ति या नाम आपके लिए कुछ भी मायने रखता है। साथ ही, आपको वीडियो कॉल पर दिखाई देने वाले कॉन्टैक्ट नाम और संपर्क जानकारी को भी जांचना चाहिए।

    वीडियो साइजिंग: अगर कोई व्यक्ति नकली वीडियो कॉल कर रहा है, तो आपको वेबकैम विंडो में फिट होने के लिए वीडियो का आकार बदलना होगा। यह क्रिया वीडियो अनुपात को विकृत कर सकती है और यह आकार से बाहर दिखती है।

    कितनी बड़ी समस्या है डीपफेक

    पिछले कुछ वर्षों में डीपफेक तकनीक लोगों के लिए एक समस्या बन गई है। यह आर्टिफिशियल इंटेलिजेंस तकनीक का एक रूप है, जो यथार्थवादी लेकिन नकली वीडियो बनाता है। इसे वीडियो या छवि हेरफेर पर लागू किया जा सकता है।

    डीपफेक तकनीक की प्रक्रिया लक्षित व्यक्ति के बारे में सार्वजनिक रूप से उपलब्ध जानकारी जैसे कि सोशल मीडिया के माध्यम से विजुअल और साउंड डेटा एकत्र करने के साथ शुरू होती है। फिर, डीपफेक के लक्षित व्यक्ति की नकल करने के लिए एक गहन शिक्षण मॉडल को प्रशिक्षित करने के लिए डेटा का उपयोग किया जाता है।

    comedy show banner
    comedy show banner