Move to Jagran APP

तकनीक दोधारी तलवार होती है, एकतरफ जिंदगी दूसरी तरफ मौत होती है

आस्ट्रिया सरकार में निरस्त्रीकरण विभाग के प्रमुख ने कहा, शीन से किसी दया या नैतिक व्यवहार की उम्मीद नहीं की जा सकती।

By Bhupendra SinghEdited By: Published: Sat, 20 Oct 2018 06:09 PM (IST)Updated: Sat, 20 Oct 2018 06:26 PM (IST)
तकनीक दोधारी तलवार होती है, एकतरफ जिंदगी दूसरी तरफ मौत होती है
तकनीक दोधारी तलवार होती है, एकतरफ जिंदगी दूसरी तरफ मौत होती है

जेएनएन, नई दिल्ली। तकनीक दोधारी तलवार है। एक ओर वैज्ञानिक प्रौद्योगिकी का इस्तेमाल करते हुए चिकित्सा की दुनिया में क्रांति ला रहे हैं, तो दूसरी ओर इसी प्रौद्योगिकी का इस्तेमाल एक से एक उन्नत हथियारों को बनाने में भी हो रहा है।

loksabha election banner

प्रौद्योगिकी की दुनिया में ऐसी ही दोधारी तलवार का नाम है आर्टिफिशियल इंटेलीजेंस (एआइ) यानी कृत्रिम बुद्धिमत्ता। एक ऐसी तकनीक जिसकी मदद से मशीनें खुद ही परिस्थितियों के अनुरूप फैसला लेने में सक्षम होंगी। इस तकनीक पर काम करने वाले रोबोट के हाथों किसी गंभीर बीमारी के इलाज की खबर जितना सुकून देती है, उतनी ही सिहरन उस स्थिति को सोचकर होती है कि हथियार अपनी इच्छा से लक्ष्य तय करने लगें।

जितनी तेजी से तमाम देश इस तकनीक को विकसित करने पर काम कर रहे हैं, उतनी ही तेजी से इसका विरोध भी हो रहा है। विशेषज्ञों का कहना है कि किसी भी हाल में हथियारों को मानव के नियंत्रण से बाहर नहीं जाने देना चाहिए। पिछले महीने न्यूयॉर्क में संयुक्त राष्ट्र महासभा में अपने संबोधन के दौरान संयुक्त राष्ट्र के प्रमुख एंटोनियो गुटेरस ने जलवायु परिवर्तन और बढ़ती असमानता के साथ-साथ प्रौद्योगिकी को भी बड़ा वैश्विक खतरा बताया था।

कई देश विकसित कर रहे तकनीक

हथियारों को मानव हस्तक्षेप के बिना चलने में सक्षम बनाने की दिशा में कई देश काम कर रहे हैं। अमेरिका एक ऐसी मिसाइल तैयार कर रहा है, जो सॉफ्टवेयर की मदद से अपने लक्ष्य को चुनने में सक्षम होगी। ब्रिटिश सेना का आर्टिफिशियल इंटेलीजेंस से लैस ड्रोन अपने हिसाब से तय करता है कि उसे किस पर निशाना लगाना है। रूस भी एक ऐसा टैंक बना रहा है, जिसे संचालित करने के लिए किसी व्यक्ति की जरूरत नहीं होगी।

फॉर्मूले से नहीं तय हो सकते दुश्मन

मानवरहित हथियार कुछ निश्चित एल्गोरिदम के आधार पर काम करते हैं। इस तकनीक का विरोध करने वालों का तर्क है कि किसी नियम या फॉर्मूले के आधार पर दुश्मन तय नहीं किए जा सकते। हथियारों को कभी भी पूरी तरह मानव के नियंत्रण से बाहर नहीं किया जाना चाहिए। अपनी इच्छा से लक्ष्य तय करने वाला हथियार तकनीकी खामियों का शिकार होने पर खुद को विकसित करने वाले को भी दुश्मन समझकर हमला कर सकता है।

मशीन में नहीं होंगे नैतिकता के मानक

आस्ट्रिया सरकार में निरस्त्रीकरण विभाग के प्रमुख थॉमस हैजनोजी ने कहा, 'आप एक मशीन को हत्या का फैसला लेने की छूट दे रहे हैं। निसंदेह मशीन से किसी दया या नैतिक व्यवहार की उम्मीद नहीं की जा सकती।' हथियारों को उनकी इच्छा पर छोड़ देने की दिशा में कई तकनीकी बाधाएं भी हैं। इंस्टीट्यूट ऑफ यूरोपियन स्टडीज की शोधकर्ता माइकी व‌र्ब्रुगेन का कहना है कि यह सुनिश्चित करना बहुत जरूरी है कि रोबोट उसी तरह से काम करता रहे, जैसा सोचा गया है। उसका अनुमान से अलग कोई भी कदम घातक हो सकता है।

बंटे हैं विरोध के स्वर

एआइ वाले हथियारों पर प्रतिबंध को लेकर विरोध के स्वर बंटे हुए हैं। जेनेवा में संयुक्त राष्ट्र द्वारा आयोजित 70 से ज्यादा देशों की बैठक में इस दिशा में कुछ खास प्रगति नहीं हो सकी थी। अमेरिका और कुछ अन्य देशों का मानना है कि किसी तरह के प्रतिबंध से पहले प्रौद्योगिकी को समझना जरूरी है। समर्थकों का यह तर्क भी है कि प्रौद्योगिकी पर प्रतिबंध से असैन्य क्षेत्रों में हो रहे विकास भी थम जाएंगे। कुछ देश चाहते हैं कि हथियारों पर मानव नियंत्रण बने रहना चाहिए। एआइ वाले हथियारों पर पूर्ण प्रतिबंध की आवाजें बहुत कम हैं।


Jagran.com अब whatsapp चैनल पर भी उपलब्ध है। आज ही फॉलो करें और पाएं महत्वपूर्ण खबरेंWhatsApp चैनल से जुड़ें
This website uses cookies or similar technologies to enhance your browsing experience and provide personalized recommendations. By continuing to use our website, you agree to our Privacy Policy and Cookie Policy.