Trending

    Move to Jagran APP
    pixelcheck

    Risks of Artificial Intelligence: कितना खतरनाक हो सकता है AI? डीपफेक से डेटा प्राइवेसी तक ये हैं बड़ी समस्याएं

    By Ankita PandeyEdited By: Ankita Pandey
    Updated: Thu, 17 Aug 2023 10:11 PM (IST)

    चैटजीपीटी जैसे जेनेरिक एआई टूल की बढ़ती उपलब्धता इंडस्ट्री जोखिम अधिकारियों के लिए एक प्रमुख चिंता का विषय बन गई है। इस वर्ष की दूसरी तिमाही में जेनरेटिव एआई दूसरा सबसे अधिक बार उभरता हुआ जोखिम बताया गया। यह पहली बार था जब जेनेरिक एआई टॉप 10 जोखिमों में दिखाई दिया। आइये Ai से जुड़े कुछ खतरों के बारे में विस्तार से जानते हैं।

    Hero Image
    Risks of Artificial Intelligence: कितना खतरनाक हो सकता है AI?

    नई दिल्ली, टेक डेस्क। चैटजीपीटी जैसे जेनरेटिव एआई ने हमारे एआई के साथ बातचीत करने और देखने के तरीके में क्रांति ला दी है। लेखन, कोडिंग और नौकरियों के लिए आवेदन करने जैसी गतिविधियां बहुत आसान और तेज हो गई हैं। हालांकि, सभी सकारात्मकताओं के साथ, कुछ गंभीर जोखिम भी हैं।

    विज्ञापन हटाएं सिर्फ खबर पढ़ें

    एआई के साथ एक बड़ी चिंता विश्वास और सुरक्षा है, जिसके कारण कुछ देशों ने चैटजीपीटी पर पूरी तरह से प्रतिबंध लगा दिया है या यूजर्स को नुकसान से बचाने के लिए एआई के आसपास नीति पर पुनर्विचार किया है।

    सबसे बड़ा जोखिम है AI

    गार्टनर के विश्लेषक अवीवा लिटन के अनुसार, जेनरेटिव एआई के कुछ सबसे बड़े जोखिम विश्वास और सुरक्षा से संबंधित हैं। इसमें हेल्यूसिनेशन, डीपफेक, डेटा गोपनीयता, कॉपीराइट मुद्दे और साइबर सुरक्षा समस्याएं शामिल हैं। एआई मॉडल करने की संभावना रखते हैं, क्योंकि वे एडवांस हैं, फिर भी वे मानव नहीं हैं और उत्तर देने के लिए प्रशिक्षण और डेटा पर निर्भर हैं।

    अगर आपने एआई चैटबॉट का उपयोग किया है, तो संभवतः आपने अपने संकेत की गलतफहमी या अपने प्रश्न के स्पष्ट रूप से गलत उत्तर के कारण इन हेल्यूसिनेशन का अनुभव किया है। लिटन का कहना है कि प्रशिक्षण डेटा से पक्षपातपूर्ण या तथ्यात्मक रूप से गलत प्रतिक्रियाएं हो सकती हैं, जो एक गंभीर समस्या हो सकती है। खासकर तब, जब लोग जानकारी के लिए इन बॉट्स पर भरोसा कर रहे हों।

    डीपफेक

    एक डीपफेक वीडियो, फोटो और वॉयस रिकॉर्डिंग बनाने के लिए जेनरेटिव एआई का उपयोग करता है, जो नकली होते हैं लेकिन किसी अन्य व्यक्ति की इमेज और समानता लेते हैं। पफर जैकेट में पोप फ्रांसिस की एआई-जनरेटेड वायरल तस्वीर या एआई-जनरेटेड ड्रेक और द वीकेंड सॉन्ग इसके सटीक उदाहरण हैं, जिसने सैकड़ों हजारों स्ट्रीम प्राप्त कीं।

    डेटा प्राइवेसी

    जेनरेटिव एआई के साथ प्राइवेसी भी एक प्रमुख चिंता का विषय है, क्योंकि यूजर डेटा अक्सर मॉडल प्रशिक्षण के लिए संग्रहीत किया जाता है। यह चिंता वह व्यापक कारक थी, जिसने इटली को चैटजीपीटी पर प्रतिबंध लगाने के लिए प्रेरित किया, यह दावा करते हुए कि ओपनएआई कानूनी रूप से यूजर्स डेटा इकट्ठा करने के लिए अधिकृत नहीं था।

    लिटन कहते हैं कि जेनेरेटिव एआई चैटबॉट समाधानों के साथ बातचीत करते समय कर्मचारी संवेदनशील और मालिकाना इंडस्ट्री डेटा को आसानी से उजागर कर सकते हैं।

    साइबर सुरक्षा

    जेनेरिक एआई मॉडल की एडवांस क्षमताएं, जैसे कोडिंग गलत हाथों में भी पड़ सकती हैं, जिससे साइबर सुरक्षा संबंधी चिंताएं पैदा हो सकती हैं। लिटन कहते हैं कि अधिक एडवांस सोशल इंजीनियरिंग और फ़िशिंग खतरों के अलावा, हमलावर आसान दुर्भावनापूर्ण कोड पीढ़ी के लिए इन टूल का उपयोग कर सकते हैं।

    लिटन का कहना है कि हालांकि जेनेरिक एआई समाधान पेश करने वाले विक्रेता आम तौर पर ग्राहकों को आश्वासन देते हैं कि उनके मॉडल दुर्भावनापूर्ण साइबर सुरक्षा अनुरोधों को अस्वीकार करने के लिए प्रशिक्षित हैं।

    कॉपीराइट मुद्दे

    कॉपीराइट एक बड़ी चिंता का विषय है, क्योंकि जेनरेटिव एआई मॉडल को भारी मात्रा में इंटरनेट डेटा पर प्रशिक्षित किया जाता है, जिसका उपयोग आउटपुट एडवांस करने के लिए किया जाता है। प्रशिक्षण की इस प्रक्रिया का अर्थ है कि जिन कार्यों को मूल स्रोत द्वारा स्पष्ट रूप से साझा नहीं किया गया है, उनका उपयोग नए कंटेंट जनरेट करने के लिए किया जा सकता है।