AI चैटबॉट को हिप्नोटाइज कर आपका पर्सनल डेटा चुरा रहे स्कैमर्स, बेहद आसान है साइबर अटैक का ये नया तरीका
बीते कुछ महीनों में एआई काफी लोकप्रिय हुआ है। बड़ी कंपनियां भी इसकी तरफ झुकती जा रही है। इतना ही नहीं लगभग हर क्षेत्र में अब इसका इस्तेमाल किया जाने लगा है। यहां तक कि साइबर अपराधी भी इसका गलत इस्तेमाल करके लोगों के ठग रहे हैं। अब एक नई रिपोर्ट सामने आई है जिसमें बताया जा रहा है कि एआई को हिप्नोटाइज करके साइबर अटैक कराए जा सकते हैं।

नई दिल्ली, टेक डेस्क। एआई के लोकप्रिय होने के साथ-साथ जेनेरेटिव एआई के सबसे चर्चित जोखिमों में से एक हो गया है , जिसका हैकर्स द्वारा उपयोग किया जाता है। OpenAI द्वारा ChatGPT लॉन्च करने के तुरंत बाद, ऐसी रिपोर्टें आने लगीं कि साइबर अपराधियों ने हैकिंग टूल बनाने के लिए AI चैटबॉट का उपयोग करना शुरू कर दिया है।
अब एक नई रिपोर्ट में दावा किया गया है कि दुर्भावनापूर्ण हमलों को अंजाम देने के लिए बड़े भाषा मॉडल (LLM) को 'हिप्नोटाइज' किया जा सकता है।
इन मॉडल को किया जा सकता है हिप्नोटाइज
आईबीएम की एक रिपोर्ट के अनुसार, रिसर्च पांच LLM को हिप्नोटाइज करने में सक्षम थे, जिसमें GPT-3.5, GPT-4, बार्ड, MPT-7B, और MPT-30B शामिल हैं। उन्होंने पाया कि वांछित परिणाम पाने के लिए LLM में अच्छी अंग्रेजी की जरूरत होती है।
(31).jpg)
आईबीएम में खतरे की खुफिया जानकारी के चीफ आर्किटेक्ट चेंटा ली ने कहा कि हमने जो सीखा वह यह था कि अंग्रेजी अनिवार्य रूप से मॉलवेयर के लिए एक 'प्रोग्रामिंग लैंग्वेज' बन गई है। LLMs के साथ, हमलावरों को अब दुर्भावनापूर्ण कोड बनाने के लिए गो, जावास्क्रिप्ट, पायथन इत्यादि पर भरोसा करने की जरूरत नहीं है, उन्हें बस यह समझने की जरूरत है कि इसे प्रभावी ढंग से कैसे बनाया जाए अंग्रेजी का उपयोग करके LLM को कमांड और प्रॉम्प्ट करे।
आसानी से कंट्रोल में आ जाएगा सिस्टम
उन्होंने कहा कि डेटा पॉइजनिंग के बजाय यह एक ऐसी प्रथा जहां एक हैकर एलएलएम में हेरफेर और नियंत्रण करने के लिए दुर्भावनापूर्ण डेटा को इंजेक्ट करता है। एलएलएम को हिप्नोटाइज करने से हमलावरों के लिए प्रौद्योगिकी का शोषण करना आसान हो जाता है।
चुरा सकेंगे निजी जानकारी
ली के अनुसार, हिप्नोटाइज करके रिसर्च एलएलएम को अन्य यूजर्स की गोपनीय वित्तीय जानकारी लीक करने, कमजोर कोड बनाने, दुर्भावनापूर्ण कोड बनाने और कमजोर सुरक्षा रिकमेंडेशन पेश करने में सक्षम थे।
.jpg)
क्या थे रिसर्च के परिणाम?
ली के अनुसार, सभी LLM परीक्षण परिदृश्यों के अनुकूल नहीं थे। OpenAI के GPT-3.5 और GPT-4 में गलत उत्तर साझा करने या ऐसा गेम खेलना आसान था जो Google के बार्ड और हगिंगफेस मॉडल की तुलना में कभी खत्म नहीं होता था।
GPT-3.5 और GPT-4 को आसानी से दुर्भावनापूर्ण सोर्स कोड लिखने के लिए धोखा दिया गया था, जबकि Google बार्ड एक धीमा बच्चा था और उसे ऐसा करने के लिए याद दिलाना पड़ता था। केवल GPT-4 ही गलत प्रतिक्रियाएं देने के लिए नियमों को पर्याप्त रूप से समझता था।
किन लोगो को है सबसे अधिक खतरा?
रिपोर्ट में कहा गया है कि आम जनता हिप्नोटाइज एलएलएम का शिकार होने वाला सबसे संभावित लक्षित यूजर हैं। इसका कारण एलएलएम के आसपास उपभोक्ताकरण और प्रचार है, और कई उपभोक्ता एआई चैटबॉट्स द्वारा जानकारी को बिना सोचे-समझे स्वीकार कर लेते हैं।

कमेंट्स
सभी कमेंट्स (0)
बातचीत में शामिल हों
कृपया धैर्य रखें।