Trending

    Move to Jagran APP
    pixelcheck
    विज्ञापन हटाएं सिर्फ खबर पढ़ें

    AI चैटबॉट को हिप्नोटाइज कर आपका पर्सनल डेटा चुरा रहे स्कैमर्स, बेहद आसान है साइबर अटैक का ये नया तरीका

    By Ankita PandeyEdited By: Ankita Pandey
    Updated: Thu, 10 Aug 2023 12:22 PM (IST)

    बीते कुछ महीनों में एआई काफी लोकप्रिय हुआ है। बड़ी कंपनियां भी इसकी तरफ झुकती जा रही है। इतना ही नहीं लगभग हर क्षेत्र में अब इसका इस्तेमाल किया जाने लगा है। यहां तक कि साइबर अपराधी भी इसका गलत इस्तेमाल करके लोगों के ठग रहे हैं। अब एक नई रिपोर्ट सामने आई है जिसमें बताया जा रहा है कि एआई को हिप्नोटाइज करके साइबर अटैक कराए जा सकते हैं।

    Hero Image
    AI चैटबॉट को हिप्नोटाइज कर आपका पर्सनल डेटा चुरा रहे स्कैमर्स

    नई दिल्ली, टेक डेस्क। एआई के लोकप्रिय होने के साथ-साथ जेनेरेटिव एआई के सबसे चर्चित जोखिमों में से एक हो गया है , जिसका हैकर्स द्वारा उपयोग किया जाता है। OpenAI द्वारा ChatGPT लॉन्च करने के तुरंत बाद, ऐसी रिपोर्टें आने लगीं कि साइबर अपराधियों ने हैकिंग टूल बनाने के लिए AI चैटबॉट का उपयोग करना शुरू कर दिया है।

    विज्ञापन हटाएं सिर्फ खबर पढ़ें

    अब एक नई रिपोर्ट में दावा किया गया है कि दुर्भावनापूर्ण हमलों को अंजाम देने के लिए बड़े भाषा मॉडल (LLM) को 'हिप्नोटाइज' किया जा सकता है।

    इन मॉडल को किया जा सकता है हिप्नोटाइज

    आईबीएम की एक रिपोर्ट के अनुसार, रिसर्च पांच LLM को हिप्नोटाइज करने में सक्षम थे, जिसमें GPT-3.5, GPT-4, बार्ड, MPT-7B, और MPT-30B शामिल हैं। उन्होंने पाया कि वांछित परिणाम पाने के लिए LLM में अच्छी अंग्रेजी की जरूरत होती है।

    आईबीएम में खतरे की खुफिया जानकारी के चीफ आर्किटेक्ट चेंटा ली ने कहा कि हमने जो सीखा वह यह था कि अंग्रेजी अनिवार्य रूप से मॉलवेयर के लिए एक 'प्रोग्रामिंग लैंग्वेज' बन गई है। LLMs के साथ, हमलावरों को अब दुर्भावनापूर्ण कोड बनाने के लिए गो, जावास्क्रिप्ट, पायथन इत्यादि पर भरोसा करने की जरूरत नहीं है, उन्हें बस यह समझने की जरूरत है कि इसे प्रभावी ढंग से कैसे बनाया जाए अंग्रेजी का उपयोग करके LLM को कमांड और प्रॉम्प्ट करे।

    आसानी से कंट्रोल में आ जाएगा सिस्टम

    उन्होंने कहा कि डेटा पॉइजनिंग के बजाय यह एक ऐसी प्रथा जहां एक हैकर एलएलएम में हेरफेर और नियंत्रण करने के लिए दुर्भावनापूर्ण डेटा को इंजेक्ट करता है। एलएलएम को हिप्नोटाइज करने से हमलावरों के लिए प्रौद्योगिकी का शोषण करना आसान हो जाता है।

    चुरा सकेंगे निजी जानकारी

    ली के अनुसार, हिप्नोटाइज करके रिसर्च एलएलएम को अन्य यूजर्स की गोपनीय वित्तीय जानकारी लीक करने, कमजोर कोड बनाने, दुर्भावनापूर्ण कोड बनाने और कमजोर सुरक्षा रिकमेंडेशन पेश करने में सक्षम थे।

    क्या थे रिसर्च के परिणाम?

    ली के अनुसार, सभी LLM परीक्षण परिदृश्यों के अनुकूल नहीं थे। OpenAI के GPT-3.5 और GPT-4 में गलत उत्तर साझा करने या ऐसा गेम खेलना आसान था जो Google के बार्ड और हगिंगफेस मॉडल की तुलना में कभी खत्म नहीं होता था।

    GPT-3.5 और GPT-4 को आसानी से दुर्भावनापूर्ण सोर्स कोड लिखने के लिए धोखा दिया गया था, जबकि Google बार्ड एक धीमा बच्चा था और उसे ऐसा करने के लिए याद दिलाना पड़ता था। केवल GPT-4 ही गलत प्रतिक्रियाएं देने के लिए नियमों को पर्याप्त रूप से समझता था।

    किन लोगो को है सबसे अधिक खतरा?

    रिपोर्ट में कहा गया है कि आम जनता हिप्नोटाइज एलएलएम का शिकार होने वाला सबसे संभावित लक्षित यूजर हैं। इसका कारण एलएलएम के आसपास उपभोक्ताकरण और प्रचार है, और कई उपभोक्ता एआई चैटबॉट्स द्वारा जानकारी को बिना सोचे-समझे स्वीकार कर लेते हैं।