Risks of Artificial Intelligence: कितना खतरनाक हो सकता है AI? डीपफेक से डेटा प्राइवेसी तक ये हैं बड़ी समस्याएं
चैटजीपीटी जैसे जेनेरिक एआई टूल की बढ़ती उपलब्धता इंडस्ट्री जोखिम अधिकारियों के लिए एक प्रमुख चिंता का विषय बन गई है। इस वर्ष की दूसरी तिमाही में जेनरेटिव एआई दूसरा सबसे अधिक बार उभरता हुआ जोखिम बताया गया। यह पहली बार था जब जेनेरिक एआई टॉप 10 जोखिमों में दिखाई दिया। आइये Ai से जुड़े कुछ खतरों के बारे में विस्तार से जानते हैं।

नई दिल्ली, टेक डेस्क। चैटजीपीटी जैसे जेनरेटिव एआई ने हमारे एआई के साथ बातचीत करने और देखने के तरीके में क्रांति ला दी है। लेखन, कोडिंग और नौकरियों के लिए आवेदन करने जैसी गतिविधियां बहुत आसान और तेज हो गई हैं। हालांकि, सभी सकारात्मकताओं के साथ, कुछ गंभीर जोखिम भी हैं।
एआई के साथ एक बड़ी चिंता विश्वास और सुरक्षा है, जिसके कारण कुछ देशों ने चैटजीपीटी पर पूरी तरह से प्रतिबंध लगा दिया है या यूजर्स को नुकसान से बचाने के लिए एआई के आसपास नीति पर पुनर्विचार किया है।
सबसे बड़ा जोखिम है AI
गार्टनर के विश्लेषक अवीवा लिटन के अनुसार, जेनरेटिव एआई के कुछ सबसे बड़े जोखिम विश्वास और सुरक्षा से संबंधित हैं। इसमें हेल्यूसिनेशन, डीपफेक, डेटा गोपनीयता, कॉपीराइट मुद्दे और साइबर सुरक्षा समस्याएं शामिल हैं। एआई मॉडल करने की संभावना रखते हैं, क्योंकि वे एडवांस हैं, फिर भी वे मानव नहीं हैं और उत्तर देने के लिए प्रशिक्षण और डेटा पर निर्भर हैं।
अगर आपने एआई चैटबॉट का उपयोग किया है, तो संभवतः आपने अपने संकेत की गलतफहमी या अपने प्रश्न के स्पष्ट रूप से गलत उत्तर के कारण इन हेल्यूसिनेशन का अनुभव किया है। लिटन का कहना है कि प्रशिक्षण डेटा से पक्षपातपूर्ण या तथ्यात्मक रूप से गलत प्रतिक्रियाएं हो सकती हैं, जो एक गंभीर समस्या हो सकती है। खासकर तब, जब लोग जानकारी के लिए इन बॉट्स पर भरोसा कर रहे हों।
डीपफेक
एक डीपफेक वीडियो, फोटो और वॉयस रिकॉर्डिंग बनाने के लिए जेनरेटिव एआई का उपयोग करता है, जो नकली होते हैं लेकिन किसी अन्य व्यक्ति की इमेज और समानता लेते हैं। पफर जैकेट में पोप फ्रांसिस की एआई-जनरेटेड वायरल तस्वीर या एआई-जनरेटेड ड्रेक और द वीकेंड सॉन्ग इसके सटीक उदाहरण हैं, जिसने सैकड़ों हजारों स्ट्रीम प्राप्त कीं।
डेटा प्राइवेसी
जेनरेटिव एआई के साथ प्राइवेसी भी एक प्रमुख चिंता का विषय है, क्योंकि यूजर डेटा अक्सर मॉडल प्रशिक्षण के लिए संग्रहीत किया जाता है। यह चिंता वह व्यापक कारक थी, जिसने इटली को चैटजीपीटी पर प्रतिबंध लगाने के लिए प्रेरित किया, यह दावा करते हुए कि ओपनएआई कानूनी रूप से यूजर्स डेटा इकट्ठा करने के लिए अधिकृत नहीं था।
लिटन कहते हैं कि जेनेरेटिव एआई चैटबॉट समाधानों के साथ बातचीत करते समय कर्मचारी संवेदनशील और मालिकाना इंडस्ट्री डेटा को आसानी से उजागर कर सकते हैं।
साइबर सुरक्षा
जेनेरिक एआई मॉडल की एडवांस क्षमताएं, जैसे कोडिंग गलत हाथों में भी पड़ सकती हैं, जिससे साइबर सुरक्षा संबंधी चिंताएं पैदा हो सकती हैं। लिटन कहते हैं कि अधिक एडवांस सोशल इंजीनियरिंग और फ़िशिंग खतरों के अलावा, हमलावर आसान दुर्भावनापूर्ण कोड पीढ़ी के लिए इन टूल का उपयोग कर सकते हैं।
लिटन का कहना है कि हालांकि जेनेरिक एआई समाधान पेश करने वाले विक्रेता आम तौर पर ग्राहकों को आश्वासन देते हैं कि उनके मॉडल दुर्भावनापूर्ण साइबर सुरक्षा अनुरोधों को अस्वीकार करने के लिए प्रशिक्षित हैं।
कॉपीराइट मुद्दे
कॉपीराइट एक बड़ी चिंता का विषय है, क्योंकि जेनरेटिव एआई मॉडल को भारी मात्रा में इंटरनेट डेटा पर प्रशिक्षित किया जाता है, जिसका उपयोग आउटपुट एडवांस करने के लिए किया जाता है। प्रशिक्षण की इस प्रक्रिया का अर्थ है कि जिन कार्यों को मूल स्रोत द्वारा स्पष्ट रूप से साझा नहीं किया गया है, उनका उपयोग नए कंटेंट जनरेट करने के लिए किया जा सकता है।
कमेंट्स
सभी कमेंट्स (0)
बातचीत में शामिल हों
कृपया धैर्य रखें।