तकनीक दोधारी तलवार होती है, एकतरफ जिंदगी दूसरी तरफ मौत होती है
आस्ट्रिया सरकार में निरस्त्रीकरण विभाग के प्रमुख ने कहा, शीन से किसी दया या नैतिक व्यवहार की उम्मीद नहीं की जा सकती।
जेएनएन, नई दिल्ली। तकनीक दोधारी तलवार है। एक ओर वैज्ञानिक प्रौद्योगिकी का इस्तेमाल करते हुए चिकित्सा की दुनिया में क्रांति ला रहे हैं, तो दूसरी ओर इसी प्रौद्योगिकी का इस्तेमाल एक से एक उन्नत हथियारों को बनाने में भी हो रहा है।
प्रौद्योगिकी की दुनिया में ऐसी ही दोधारी तलवार का नाम है आर्टिफिशियल इंटेलीजेंस (एआइ) यानी कृत्रिम बुद्धिमत्ता। एक ऐसी तकनीक जिसकी मदद से मशीनें खुद ही परिस्थितियों के अनुरूप फैसला लेने में सक्षम होंगी। इस तकनीक पर काम करने वाले रोबोट के हाथों किसी गंभीर बीमारी के इलाज की खबर जितना सुकून देती है, उतनी ही सिहरन उस स्थिति को सोचकर होती है कि हथियार अपनी इच्छा से लक्ष्य तय करने लगें।
जितनी तेजी से तमाम देश इस तकनीक को विकसित करने पर काम कर रहे हैं, उतनी ही तेजी से इसका विरोध भी हो रहा है। विशेषज्ञों का कहना है कि किसी भी हाल में हथियारों को मानव के नियंत्रण से बाहर नहीं जाने देना चाहिए। पिछले महीने न्यूयॉर्क में संयुक्त राष्ट्र महासभा में अपने संबोधन के दौरान संयुक्त राष्ट्र के प्रमुख एंटोनियो गुटेरस ने जलवायु परिवर्तन और बढ़ती असमानता के साथ-साथ प्रौद्योगिकी को भी बड़ा वैश्विक खतरा बताया था।
कई देश विकसित कर रहे तकनीक
हथियारों को मानव हस्तक्षेप के बिना चलने में सक्षम बनाने की दिशा में कई देश काम कर रहे हैं। अमेरिका एक ऐसी मिसाइल तैयार कर रहा है, जो सॉफ्टवेयर की मदद से अपने लक्ष्य को चुनने में सक्षम होगी। ब्रिटिश सेना का आर्टिफिशियल इंटेलीजेंस से लैस ड्रोन अपने हिसाब से तय करता है कि उसे किस पर निशाना लगाना है। रूस भी एक ऐसा टैंक बना रहा है, जिसे संचालित करने के लिए किसी व्यक्ति की जरूरत नहीं होगी।
फॉर्मूले से नहीं तय हो सकते दुश्मन
मानवरहित हथियार कुछ निश्चित एल्गोरिदम के आधार पर काम करते हैं। इस तकनीक का विरोध करने वालों का तर्क है कि किसी नियम या फॉर्मूले के आधार पर दुश्मन तय नहीं किए जा सकते। हथियारों को कभी भी पूरी तरह मानव के नियंत्रण से बाहर नहीं किया जाना चाहिए। अपनी इच्छा से लक्ष्य तय करने वाला हथियार तकनीकी खामियों का शिकार होने पर खुद को विकसित करने वाले को भी दुश्मन समझकर हमला कर सकता है।
मशीन में नहीं होंगे नैतिकता के मानक
आस्ट्रिया सरकार में निरस्त्रीकरण विभाग के प्रमुख थॉमस हैजनोजी ने कहा, 'आप एक मशीन को हत्या का फैसला लेने की छूट दे रहे हैं। निसंदेह मशीन से किसी दया या नैतिक व्यवहार की उम्मीद नहीं की जा सकती।' हथियारों को उनकी इच्छा पर छोड़ देने की दिशा में कई तकनीकी बाधाएं भी हैं। इंस्टीट्यूट ऑफ यूरोपियन स्टडीज की शोधकर्ता माइकी वर्ब्रुगेन का कहना है कि यह सुनिश्चित करना बहुत जरूरी है कि रोबोट उसी तरह से काम करता रहे, जैसा सोचा गया है। उसका अनुमान से अलग कोई भी कदम घातक हो सकता है।
बंटे हैं विरोध के स्वर
एआइ वाले हथियारों पर प्रतिबंध को लेकर विरोध के स्वर बंटे हुए हैं। जेनेवा में संयुक्त राष्ट्र द्वारा आयोजित 70 से ज्यादा देशों की बैठक में इस दिशा में कुछ खास प्रगति नहीं हो सकी थी। अमेरिका और कुछ अन्य देशों का मानना है कि किसी तरह के प्रतिबंध से पहले प्रौद्योगिकी को समझना जरूरी है। समर्थकों का यह तर्क भी है कि प्रौद्योगिकी पर प्रतिबंध से असैन्य क्षेत्रों में हो रहे विकास भी थम जाएंगे। कुछ देश चाहते हैं कि हथियारों पर मानव नियंत्रण बने रहना चाहिए। एआइ वाले हथियारों पर पूर्ण प्रतिबंध की आवाजें बहुत कम हैं।