हत्यारा रोबोट पर पेंटागन की अद्यतन नीति क्या है?

पेंटागन ने एक जारी किया है इसके निर्देश 3000.09 में अपडेट करें, जो उनके शब्दों को कवर करता है हथियार प्रणालियों में स्वायत्तता और दूसरे कॉल करते हैं'हत्यारा रोबोट.' वायु सेना और सीआईए जैसे वर्तमान ड्रोन MQ-9 रीपर रिमोट कंट्रोल द्वारा संचालित होते हैं: एक इंसान एक वीडियो स्क्रीन के सामने बैठे हजारों मील दूर जमीन पर लक्ष्यों की पहचान करता है, उन्हें क्रॉसहेयर में रखता है और जारी करता है हेलफायर मिसाइल या अन्य हथियार। स्वायत्त हथियार अलग हैं: वे बिना किसी मानवीय हस्तक्षेप के अपना निशाना खुद चुनते हैं। उनका उपयोग कब और कैसे किया जा सकता है, इस पर स्पष्ट नियमों की आवश्यकता है और नया निर्देश उन्हें एक कदम और करीब लाता है।

दस साल पहले जब 3000.09 का पहला संस्करण जारी किया गया था, स्वायत्त हथियार विज्ञान कथा की तरह लग रहे थे। अब वे बहुत वास्तविक हैं। यूएन ने दावा किया है तुर्की द्वारा आपूर्ति किए गए ड्रोनों ने स्वायत्तता से लक्ष्यों पर हमला किया 2020 में लीबिया में और रूस अब यूक्रेन में आवारा गोला-बारूद तैनात कर रहा है स्वायत्त क्षमता।

कई कार्यकर्ता, जैसे हत्यारे रोबोटों को रोकने का अभियान, स्वायत्त हथियारों पर एकमुश्त प्रतिबंध चाहते हैं, किसी भी दूरस्थ हथियार के अधीन रहने पर जोर देते हैं सार्थक मानव नियंत्रण हर समय। संयुक्त राष्ट्र इस बात पर बहस कर रहा है कि कैसे ऐसे हथियारों को कई सालों तक नियंत्रित करें.

हालाँकि, जैसा कि नया निर्देश स्पष्ट करता है, पेंटागन एक अलग लाइन पर टिका हुआ है।

"डीओडी ने 'अर्थपूर्ण मानव नियंत्रण' के नीतिगत मानक का लगातार विरोध किया है, जब यह स्वायत्त प्रणाली और एआई सिस्टम दोनों की बात आती है," ग्रेगरी एलन, एआई गवर्नेंस पर परियोजना के निदेशक रणनीतिक और अंतर्राष्ट्रीय अध्ययन केंद्र, मुझे बताया। "कला का पसंदीदा DoD शब्द 'मानव निर्णय का उपयुक्त स्तर' है, जो इस तथ्य को दर्शाता है कि कुछ मामलों में - स्वायत्त निगरानी विमान और कुछ प्रकार के स्वायत्त साइबर हथियार, उदाहरण के लिए - मानव नियंत्रण का उपयुक्त स्तर कम से कम हो सकता है। ।”

किन परिस्थितियों में स्वायत्त हथियारों की अनुमति दी जाएगी? एलन का मानना ​​है कि निर्देश का पिछला संस्करण इतना अस्पष्ट था कि इसने इस क्षेत्र में किसी भी विकास को हतोत्साहित किया।

एलन कहते हैं, "भ्रम इतना व्यापक था - जिसमें DoD के कुछ वरिष्ठ नेता भी शामिल थे - कि अधिकारी कुछ ऐसी प्रणालियों को विकसित करने से परहेज कर रहे थे, जिन्हें न केवल नीति द्वारा अनुमति दी गई थी, बल्कि स्पष्ट रूप से वरिष्ठ समीक्षा आवश्यकता से भी छूट दी गई थी।"

प्रकाशित होने के बाद से दस वर्षों में मूल 3000.09 में निर्धारित स्वायत्त हथियारों की समीक्षा प्रक्रिया के लिए एक भी हथियार प्रस्तुत नहीं किया गया है।

एलन ने एक लिखा इस पर निबंध सीएसआईएस के लिए पिछले साल, चार क्षेत्रों का वर्णन किया गया था, जिसमें काम करने की आवश्यकता थी - औपचारिक रूप से स्वायत्त हथियार प्रणालियों को परिभाषित करना, यह कहना कि नीति के लिए "एआई-सक्षम" का क्या मतलब है, समीक्षा प्रक्रिया मशीन सीखने के मॉडल को फिर से कैसे संभालेगी, और यह स्पष्ट करना कि किस प्रकार के हथियारों की आवश्यकता है कठिन समीक्षा प्रक्रिया से गुजरें।

"डीओडी ने उन सभी को लागू किया है," एलन कहते हैं।

सिद्धांत रूप में, यह सुनिश्चित करना चाहिए कि डीओडी शब्द "स्वायत्त प्रणालियों के सैन्य उपयोगों के संबंध में जिम्मेदार नीतियां स्थापित करने में एक पारदर्शी वैश्विक नेता होने के लिए मजबूत और निरंतर प्रतिबद्धता" क्या है।

हालांकि, कुछ जोड़ हैं जिन्हें खामियों के रूप में देखा जा सकता है, जैसे स्वायत्त हथियारों की रक्षा करने वाले ड्रोन के लिए वरिष्ठ समीक्षा से छूट जो लोगों को लक्षित नहीं करते हैं ('सामग्री-रोधी हथियार') और लेकिन जिन्हें मिसाइलों, अन्य ड्रोनों को लक्षित करने की अनुमति होगी और संभावित रूप से अन्य सिस्टम।

"शब्द 'बचाव' बहुत काम कर रहा है," ज़क कल्लनबोर्न, जॉर्ज मेसन यूनिवर्सिटी के शार स्कूल ऑफ पॉलिसी एंड गवर्नमेंट के एक पॉलिसी फेलो ने मुझे बताया। "यदि एक ड्रोन दुश्मन के इलाके में काम कर रहा है, तो लगभग किसी भी हथियार को प्लेटफॉर्म 'बचाव' के रूप में माना जा सकता है।"

कल्लनबॉर्न ने यह भी नोट किया है कि जबकि बारूदी सुरंगों जैसे प्रभावी रूप से स्वायत्त हथियारों का उपयोग एक सदी से अधिक समय से किया जा रहा है, एआई और विशेष मशीन लर्निंग में प्रगति के कारण परिदृश्य तेजी से बदल रहा है। इनसे उन प्रणालियों को जन्म मिला है जो बहुत सक्षम हैं, लेकिन तकनीकी रूप से भंगुर - जब वे असफल होते हैं, तो वे इस तरह से शानदार ढंग से विफल होते हैं जैसे कोई भी इंसान नहीं करेगा, उदाहरण के लिए राइफल के लिए कछुए को गलत करना.

"एआई के माध्यम से स्वायत्तता निश्चित रूप से अधिक चिंता का पात्र है, वर्तमान में प्रचलित दृष्टिकोणों की भंगुरता और व्याख्या की कमी को देखते हुए," कल्लनबोर्न कहते हैं।

अपडेट कोई बड़ा नहीं है। लेकिन यह प्रभावी स्वायत्त हथियार विकसित करने के प्रति पेंटागन की निरंतर प्रतिबद्धता और उनके द्वारा पालन किए जा सकने वाले विश्वास को दर्शाता है अंतरराष्ट्रीय मानवीय कानून - नागरिकों को सैन्य कर्मियों से अलग करना, नागरिकों को नुकसान पहुँचाने से बचने की कोशिश करना, और केवल आनुपातिक और आवश्यक बल का उपयोग करना।

प्रचारकों का मानना ​​​​है कि युद्ध के समय में नैतिक निर्णय लेने के लिए एआई के पास आवश्यक समझ नहीं होगी और एक ऐसी दुनिया बनाने का जोखिम होगा जहां युद्ध स्वचालित है और मनुष्य अब नियंत्रण में नहीं हैं। दूसरों का मानना ​​है कि अमेरिकी सेना होगी स्वायत्त हथियारों के साथ विरोधियों द्वारा बेदखल जब तक एआई को एक सामरिक स्तर पर शामिल नहीं किया जाता है, और वह भी बहुत अधिक मानवीय भागीदारी सैन्य रोबोटों को धीमा कर देता है.

तर्क जारी रहने की संभावना है क्योंकि स्वायत्त हथियार दिखाई देने लगते हैं, और परिणामों का बारीकी से पालन किया जाएगा। किसी भी तरह, ऐसा लगता है कि हत्यारे रोबोट आ रहे हैं।

स्रोत: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/