एआई-आधारित स्वायत्त हथियार प्रणालियों के उग्र एक-दो पंच के साथ एआई नैतिकता संघर्ष और एआई-संचालित स्वायत्त प्रणालियों का शोषण जो शैतानी रूप से हथियारबंद हैं

वे अद्भुत नृत्य करने वाले चार पैर वाले रोबोट।

मुझे यकीन है कि आपने चार पैरों वाले रोबोटिक सिस्टम के उन वायरल वीडियो को देखा होगा जो कुत्ते की तरह प्यारे और आनंददायक तरीके से नृत्य और नृत्य करते हैं। हम उन एआई-संचालित रोबोटों को देखकर प्रसन्न होते हैं, जब वे बाधाओं पर चढ़ते हैं और बक्सों के शीर्ष पर बैठे होने पर या अलमारियों के शीर्ष पर अनिश्चित रूप से रखे जाने के बाद एक नाजुक पैर जमाने लगते हैं। उनके मानव संचालक कभी-कभी चार पैरों वाले रोबोटों पर प्रहार करेंगे या उन्हें धक्का देंगे, जो अत्यधिक अनुचित लगता है और उन मास्टरमाइंड ह्यूमनॉइड्स के क्रूर व्यवहार पर आपका गुस्सा आसानी से बढ़ा सकता है।

हालाँकि, मैं सोच रहा हूँ कि क्या आपने पूरी तरह से अलग स्तर के गैर-वायरल वीडियो देखे हैं।

अपने आप को तैयार करो।

ऐसे वीडियो व्यापक रूप से पोस्ट किए गए हैं जिनमें एक ही प्रकार के चार पैरों वाले रोबोट दिखाए गए हैं जो किसी न किसी प्रकार के स्पष्ट हथियारों से सुसज्जित हैं।

उदाहरण के लिए, एक मशीन गन या इसी तरह की बन्दूक एक अन्यथा परिचित नाचने-कूदने वाले रोबोट के ऊपर लगाई जाती है। चार पैरों वाले रोबोट और हथियार के फायरिंग तंत्र के बीच एक इलेक्ट्रॉनिक संबंध है। अब हथियारबंद कंप्यूटर-वॉकिंग कोंटरापशन को उस स्थान पर बढ़ते हुए दिखाया गया है जहां एक बुल्सआई लक्ष्य रखा गया है, और मशीन गन को लक्ष्य पर जमकर फायर किया जाता है। बाद में आंशिक रूप से नष्ट किए गए लक्ष्य को भेदने के बाद, चार पैरों वाला रोबोट आस-पास की बाधाओं के आसपास नाचता और उछलता है और अन्य नए लक्ष्यों पर उसी क्रिया को बार-बार दोहराने के लिए कतार में खड़ा होता है।

बिल्कुल वैसा नहीं जैसा आपने देखने की उम्मीद की होगी। यह निश्चित रूप से उन चार पैरों वाले रोबोटों को अपना काम करते हुए देखने की हल्की-फुल्की खुशी और सापेक्ष खुशी को कम कर देता है। प्रतीत होने वाली कड़वी सच्चाई में आपका स्वागत है अहानिकर स्वायत्त प्रणालियों को तीव्र हथियारों से लैस किया जा रहा है या परिवर्तित किया जा रहा है। बहुत कम प्रयास के साथ, आप रातों-रात एक "गैर-हथियारयुक्त" स्वायत्त प्रणाली को पूर्ण रूप से हथियार रखने के लिए तैयार कर सकते हैं।

कुछ परिस्थितियों में यह लगभग आसान है।

मैं इस बेहद विवादास्पद विषय पर चर्चा करने जा रहा हूं और एआई एथिक्स से जुड़ी भारी शंकाओं को कवर करूंगा। हम स्वायत्त प्रणालियों, एआई, स्वायत्त वाहनों, हथियारीकरण और कई संबंधित नैतिक एआई लड़ाकू मुद्दों की यात्रा करेंगे। एआई एथिक्स और एथिकल एआई के मेरे चल रहे और व्यापक कवरेज के लिए, देखें यहाँ लिंक और यहाँ लिंक, कुछ लोगों का नाम बताने के लिए।

आइए कुछ मूलभूत सिद्धांतों से शुरुआत करें।

चर्चा के लिए, स्वीकार करें कि हथियारों से लैस स्वायत्त प्रणालियों को वर्गीकृत करने के दो प्रमुख तरीके हैं:

1) स्वायत्त हथियार प्रणालियाँ (डिजाइन द्वारा)

2) स्वायत्त प्रणालियाँ जो हथियारबंद हैं (तथ्य के बाद)

दोनों श्रेणियों के बीच एक महत्वपूर्ण अंतर है.

पहले उदाहरण में, हम एक को परिभाषित करेंगे स्वायत्त हथियार प्रणाली प्रारंभ से ही कम्प्यूटरीकृत सृजन का एक आधार बनना जिसका उद्देश्य उद्देश्यपूर्ण रूप से एक हथियार बनना है। डेवलपर्स के मन में था कि वे एक हथियार तैयार करना चाहते थे। उनकी स्पष्ट खोज एक हथियार बनाने की है। वे जानते थे कि वे हथियारों को नवीनतम स्वायत्त प्रणाली प्रौद्योगिकियों के साथ एकीकृत कर सकते हैं। यह एक ऐसा हथियार है जो उच्च तकनीक की लहर पर चलता है जो स्वायत्त गति और स्वायत्त कार्यों को प्राप्त करता है (मैं शीघ्र ही पूरी तरह से विस्तार से बताऊंगा)।

इसके विपरीत, दूसरे उदाहरण में, हम स्वायत्त प्रणालियों के मामले पर विचार करेंगे जिनका हथियार के प्रति कोई विशेष झुकाव नहीं है। ये अन्य उद्देश्यों के लिए विकसित की जा रही स्वायत्त प्रणालियाँ हैं। एक स्व-चालित कार जैसे स्वायत्त वाहन की कल्पना करें जिसका उपयोग सभी के लिए गतिशीलता प्रदान करने और मानव-चालित और मानव-चालित ऑटोमोबाइल के कारण होने वाली हजारों वार्षिक मौतों को कम करने में सहायता के लिए किया जाएगा (मेरी गहन कवरेज देखें) पर यहाँ लिंक). ऐसा लगता है कि इंसानों को गाड़ी के पीछे से हटाकर ड्राइवर की सीट पर एआई बिठाने के सामाजिक तौर पर उत्साहित प्रयासों के लिए किसी हथियार पर विचार नहीं किया जा रहा है।

लेकिन यदि मनुष्य चाहें तो उन अहानिकर स्वायत्त प्रणालियों को हथियार बनाया जा सकता है।

मैं इस दूसरी श्रेणी का उल्लेख इस प्रकार करता हूँ स्वायत्त प्रणालियाँ जो हथियारबंद हैं. स्वायत्त प्रणाली मूलतः और श्रद्धापूर्वक संभवतः गैर-हथियार उद्देश्य के लिए तैयार की गई थी। इसके बावजूद, स्वप्निल परोपकारी आशा को कहीं न कहीं किसी ऐसे व्यक्ति द्वारा खारिज कर दिया जाता है जिसे यह कपटपूर्ण विचार मिलता है कि इस युक्ति को हथियार बनाया जा सकता है। अचानक, जो स्वायत्त प्रणाली किसी प्रकार की हथियार क्षमताओं पर टैग करके एक घातक हथियार बन गई है (जैसे कि पहले उल्लेखित चार पैर वाले कुत्ते जैसे रोबोट जिनमें मशीन गन या इसी तरह की आग्नेयास्त्र उनकी विशेषताओं में शामिल हैं) .

अफसोस की बात है कि दोनों श्रेणियां कुछ हद तक एक ही स्थान पर समाप्त होती हैं, अर्थात् संभावित घातक आधार पर हथियार के लिए स्वायत्त प्रणालियों का उपयोग करने की क्षमता प्रदान करना।

उस समापन बिंदु तक पहुंचने की प्रक्रिया भिन्न होने की संभावना है।

पूरी तरह से हथियारबंद स्वायत्त प्रणालियों के लिए जिन्हें हथियार के रूप में आंका गया था, हथियार के पहलू आम तौर पर सामने और केंद्र में होते हैं। आप कह सकते हैं कि जिस भी हथियार पर विचार किया जा रहा है, स्वायत्त प्रणाली के पहलू उसकी आधारशिला के चारों ओर लिपटे हुए हैं। डेवलपर्स की सोचने की प्रक्रिया कुछ हद तक इस तर्ज पर है कि कैसे एक हथियार स्वायत्त प्रणालियों के आगमन का फायदा उठा सकता है।

दूसरा परिप्रेक्ष्य आमतौर पर उस मानसिकता का बिल्कुल नहीं है। डेवलपर्स शायद मानव जाति की भलाई के लिए एक अत्याधुनिक स्वायत्त प्रणाली प्राप्त करना चाहते हैं। इन डेवलपर्स ने स्वायत्त प्रणाली बनाने में अपना सच्चा दिल और आत्मा लगा दी। यह उनके आविष्कार का मूल है। उन्होंने शायद कल्पना भी नहीं की होगी कि कोई उनके चमत्कारिक रूप से लाभकारी उपकरण को हड़प लेगा या नष्ट कर देगा। वे स्वायत्त प्रणाली के आकार और उत्पादन से जुड़े सामाजिक लाभों से आनंदित हैं।

कुछ बिंदु पर, मान लीजिए कि तीसरे पक्ष को एहसास है कि स्वायत्त प्रणाली को हथियारबंद करने के लिए फिर से संगठित किया जा सकता है। हो सकता है कि वे डेवलपर्स को इस बात के लिए बरगलाते हों कि उनके पास ऊंचे उद्देश्यों के लिए स्वायत्त प्रणाली होने का दावा किया गया है। बंद दरवाजों के पीछे, ये दुष्ट लोग चुपचाप स्वायत्त प्रणाली में हथियार बनाने की क्षमता जोड़ने का विकल्प चुनते हैं। वोइला, मासूमियत पूर्ण हथियार में बदल गई।

चीज़ों को उस तरीके से आगे नहीं बढ़ना है।

शायद डेवलपर्स को बताया गया था कि वे एक निर्दोष स्वायत्त प्रणाली विकसित कर रहे थे, फिर भी इस प्रयास को वित्तपोषित करने या निर्देशित करने वालों के मन में अन्य उद्देश्य थे। हो सकता है कि स्वायत्त प्रणाली का प्रयास वास्तव में मासूमियत से शुरू हुआ हो, लेकिन फिर जब बिलों का भुगतान करना पड़ा, तो नेतृत्व ने एक फंडिंग स्रोत के साथ एक सौदा कर दिया जो नापाक कारणों से स्वायत्त प्रणाली चाहता है। एक और संभावना यह है कि डेवलपर्स को पता था कि बाद में इसका उपयोग हथियारीकरण के लिए किया जा सकता है, लेकिन उन्हें लगा कि वे उस कष्टदायक पुल को पार कर लेंगे जब भी या कभी भी ऐसा होगा। वगैरह।

यह सब कैसे चलता है, इस पर बहुत सारे अलग-अलग रास्ते हैं।

आपको यह जानकर रुचि हो सकती है कि मैंने पिछले कॉलमों में बताया है कि एआई एथिक्स के संबंध में जागरूकता बढ़ रही है दोहरे उपयोग समकालीन एआई के तत्व, देखें यहाँ लिंक. मैं आपको संक्षेप में गति के बारे में बताऊंगा।

एक एआई प्रणाली जिसकी अच्छे के लिए कल्पना की गई है, वह कभी-कभी बुरे के कगार पर हो सकती है, शायद कुछ साधारण परिवर्तनों के माध्यम से, और तदनुसार इसे दोहरे उपयोग की प्रकृति का माना जाता है। हाल ही में खबरों में एक एआई सिस्टम था जो कि ऐसे रसायनों की खोज के लिए बनाया गया था जो हत्यारे हो सकते हैं, जिसके लिए डेवलपर्स यह सुनिश्चित करना चाहते थे कि हम ऐसे गलत कल्पना वाले रसायनों से बच सकें या सावधान रहें। पता चलता है कि उन हत्यारे रसायनों को समर्पित रूप से उजागर करने के लिए एआई को कुछ हद तक आसानी से बदला जा सकता है और इस प्रकार संभावित रूप से खलनायकों को यह जानने की अनुमति मिलती है कि उनकी भयानक बुरी योजनाओं के लिए संभावित रूप से किस प्रकार के रसायनों को तैयार किया जा सकता है।

स्वायत्त प्रणालियाँ स्पष्ट रूप से उस दोहरे उपयोग वाले आवरण में फिट हो सकती हैं।

कुछ हद तक, यही कारण है कि एआई एथिक्स और एथिकल एआई इतना महत्वपूर्ण विषय है। एआई नैतिकता के नियम हमें सतर्क रहने के लिए प्रेरित करते हैं। एआई प्रौद्योगिकीविद कभी-कभी प्रौद्योगिकी, विशेष रूप से उच्च तकनीक के अनुकूलन में व्यस्त हो सकते हैं। वे जरूरी नहीं कि बड़े सामाजिक प्रभावों पर विचार कर रहे हों। एआई एथिक्स मानसिकता रखने और एआई विकास और क्षेत्ररक्षण के लिए एकीकृत रूप से ऐसा करना उचित एआई के उत्पादन के लिए महत्वपूर्ण है, जिसमें (शायद आश्चर्यजनक रूप से या विडंबना यह है) कि एआई एथिक्स को फर्मों द्वारा कैसे अपनाया जाता है, इसका आकलन शामिल है।

सामान्य रूप से एआई नैतिकता के नियमों को लागू करने के अलावा, एक समान प्रश्न है कि क्या हमारे पास एआई के विभिन्न उपयोगों को नियंत्रित करने के लिए कानून होना चाहिए। नए कानूनों को संघीय, राज्य और स्थानीय स्तरों पर बांधा जा रहा है जो इस बात से संबंधित हैं कि एआई को कैसे तैयार किया जाना चाहिए। ऐसे कानूनों का मसौदा तैयार करने और उन्हें अधिनियमित करने का प्रयास धीरे-धीरे किया जाता है। एआई एथिक्स बहुत कम से कम एक सुविचारित स्टॉपगैप के रूप में कार्य करता है, और लगभग निश्चित रूप से कुछ हद तक सीधे उन नए कानूनों में शामिल किया जाएगा।

ध्यान रखें कि कुछ लोग दृढ़ता से तर्क देते हैं कि हमें एआई को कवर करने वाले नए कानूनों की आवश्यकता नहीं है और हमारे मौजूदा कानून पर्याप्त हैं। वास्तव में, वे चेतावनी देते हैं कि यदि हम इनमें से कुछ एआई कानून लागू करते हैं, तो हम एआई में प्रगति पर रोक लगाकर सोने की मुर्गी को कमजोर कर देंगे जो कि अत्यधिक सामाजिक लाभ प्रदान करती है।

स्वायत्तता और हथियार दो सिद्धांतों के रूप में

एक मुहावरा है जिसका उपयोग कुछ लोग सभी प्रकार की हथियारयुक्त स्वायत्त प्रणालियों के बारे में चेतावनी देने के लिए कर रहे हैं, जिन्हें सामूहिक रूप से गढ़ा जा रहा है बूचड़खाने.

इससे एक अतिरिक्त पहलू सामने आता है जिस पर हमें विचार करना चाहिए।

क्या एक स्वायत्त हथियार प्रणाली और/या एक स्वायत्त प्रणाली जिसे हथियार बनाया गया है, उसमें घातक या हत्यारा रोबोट प्रधानता होनी चाहिए?

कुछ लोग तर्क देंगे कि हम निश्चित रूप से ऐसा कर सकते थे गैर-घातक हथियारयुक्त स्वायत्त प्रणालियाँ भी। इस प्रकार, उस दृष्टिकोण में, स्लॉटरबॉट्स या किलर रोबोट जैसे वाक्यांशों का उपयोग करना अत्यधिक अनुचित प्रतीत होगा। एक गैर-घातक संस्करण संभवतः उस नुकसान को वश में करने या अधिनियमित करने में सक्षम होगा जो घातक परिणाम का नहीं है। ऐसी प्रणालियाँ हत्या नहीं कर रही हैं, उनकी चोट पैदा करने की क्षमता कम है। क्षमताओं को बढ़ा-चढ़ाकर न बताएं, उनका कहना है कि जो इस बात पर जोर देते हैं कि हमें पूरी तरह से हत्या करने वाली मशीन के चक्कर में नहीं पड़ना चाहिए।

इस प्रकार, हमारे पास यह हो सकता है:

  • घातक स्वायत्त हथियार प्रणालियाँ
  • घातक स्वायत्त प्रणालियाँ जिन्हें हथियार बनाया गया है
  • गैर-घातक स्वायत्त हथियार प्रणालियाँ
  • गैर-घातक स्वायत्त प्रणालियाँ जिन्हें हथियार बनाया गया है

बेशक, प्रतिवाद यह है कि किसी भी स्वायत्त प्रणाली को हथियारबंद किया गया है, जिसमें घातक दायरे में फिसलने की संभावना है, भले ही कथित तौर पर केवल गैर-घातक आधार पर उपयोग की कल्पना की गई हो। एक स्वायत्त प्रणाली के बीच आपके हाथ में पहले से ही एक हथियार होने के बाद गैर-घातक से घातक की ओर जाने का क्रमिक दो चरण तेजी से उठाया जाएगा। आपको इस बात की पुख्ता गारंटी देने में कठिनाई होगी कि गैर-घातक घातक क्षेत्र में प्रवेश नहीं करेगा (हालांकि कुछ गणितीय समानता में ऐसा करने की कोशिश कर रहे हैं)।

इससे पहले कि हम स्वायत्त प्रणालियों और हथियारीकरण के इस समग्र विषय में बहुत आगे बढ़ें, किसी और चीज़ की ओर इशारा करना आसान हो सकता है जो शायद स्पष्ट हो लेकिन जरूरी नहीं कि वह दिमाग के शीर्ष पर हो।

यह रहा:

  • एक एआई पहलू है जो स्वायत्त प्रणाली का अभिन्न अंग है
  • एक हथियार पहलू है जो इस समीकरण का हथियार पक्ष है
  • एआई को हथियार के साथ भी जोड़ा जा सकता है

चलो उसे खोलो.

हम मान लेंगे कि आज की स्वायत्त प्रणालियों को स्वायत्त पहलुओं को सामने लाने के लिए अंतर्निहित कम्प्यूटरीकृत साधन के रूप में एआई की आवश्यकता है। मैं इसका उल्लेख इसलिए कर रहा हूं क्योंकि आप यह तर्क देने की कोशिश कर सकते हैं कि हम स्वायत्त प्रणालियों को करने के लिए गैर-एआई-संबंधित प्रौद्योगिकियों और तकनीकों का उपयोग कर सकते हैं, जो सच होने के बावजूद कम और कम संभावना वाला प्रतीत होगा। मूल रूप से, एआई स्वायत्तता के बड़े स्तर की अनुमति देता है, और अधिकांश तदनुसार एआई हाई-टेक का लाभ उठा रहे हैं।

ठीक है, तो हमें एक एआई-आधारित क्षमता मिली है जो स्वायत्त प्रणाली के भीतर किसी तरह शामिल है और स्वायत्त प्रणाली को मार्गदर्शन और नियंत्रित करने का कार्य करती है।

इसे एक नियम के रूप में अपनी उंगलियों पर रखें।

यह स्पष्ट प्रतीत होता है कि हमारे पास भी कुछ प्रकार के हथियार होने चाहिए, अन्यथा हम यहां स्वायत्त प्रणालियों के विषय पर चर्चा क्यों कर रहे हैं और हथियार, शस्त्र। तो, हाँ, जाहिर है, किसी न किसी प्रकार का हथियार है।

मैं इस बात पर ध्यान नहीं देने जा रहा हूं कि किस प्रकार के हथियार का इस्तेमाल किया जा सकता है। जो भी हथियार मन में आए, आप उसे आसानी से प्रतिस्थापित कर सकते हैं। वहां अचूक हथियार हो सकते हैं. वहाँ जन-उन्मुख विनाशकारी हथियार हो सकते हैं। यह गोलियों या प्रक्षेप्य वाली कोई चीज़ हो सकती है। यह कुछ ऐसा हो सकता है जिसमें रसायन या परमाणु वाष्पशील घटक हों। असीमित सूची है।

अतिरिक्त विचार यह है कि क्या एआई हथियार से जुड़ा हुआ है या नहीं। हो सकता है कि एआई केवल हथियारों को प्रयोग के तौर पर ले जा रहा हो। चार पैरों वाले रोबोट के मामले में जो बंदूक चला रहा था, शायद बंदूक एक इंसान द्वारा चलाई जा रही है जिसके पास हथियार के ट्रिगरिंग से जुड़ा रिमोट कंट्रोल है। कुत्ते जैसा रोबोट एक दृश्य को नेविगेट करता है और फिर ट्रिगर खींचने के लिए एक दूरस्थ मानव पर निर्भर होता है।

दूसरी ओर, एआई ट्रिगर खींचने वाला हो सकता है, जैसा कि वह था। एआई को न केवल नेविगेट करने और युद्धाभ्यास करने के लिए तैयार किया गया है बल्कि यह हथियार को भी सक्रिय करता है। उस अर्थ में, एआई ए से ज़ेड तक सब कुछ कर रहा है। चीजों के हथियार पक्ष को निष्पादित करने के लिए किसी दूरस्थ मानव पर कोई निर्भरता नहीं है। इसके बजाय AI को ऐसा करने के लिए प्रोग्राम किया गया है।

हथियारयुक्त स्वायत्त प्रणालियों के इस विशेष उपयोग के मामले में स्पष्ट करने के लिए, हमारे पास इस प्रकार की संभावनाएं हैं:

  • स्वशासी प्रणाली: AI स्वायत्त प्रणाली को पूरी तरह से अपने दम पर चलाता है
  • स्वशासी प्रणाली: एआई स्वायत्त प्रणाली चलाता है, लेकिन लूप में मौजूद मानव भी हस्तक्षेप कर सकता है
  • हथियार: दूरस्थ मानव हथियार चलाता है (एआई नहीं)
  • हथियार: एआई हथियार चलाता है, लेकिन लूप में मौजूद मानव भी हस्तक्षेप कर सकता है
  • हथियार: एआई हथियार को पूरी तरह से अपने दम पर चलाता है

मैंने पहले स्वायत्त प्रणालियों और स्वायत्त वाहनों से संबंधित मानव-इन-लूप होने की विविधताओं को कवर किया है, देखें यहाँ लिंक.

जब आप नाचते और उछलते हुए चार पैरों वाले रोबोटों के मनोरंजक वीडियो देखते हैं, तो आमतौर पर उन्हें ऐसे रोबोट माना जाता है जो विशेष रूप से एआई द्वारा चलाए जा रहे हैं (ठीक है, यह उन लोगों के बीच का रिवाज या उचित शिष्टाचार माना जाता है जो गहराई से हैं) इन मामलों में)। आप भी उचित रूप से यही मान सकते हैं। निःसंदेह, आप यह निश्चित रूप से नहीं जानते। ऐसा हो सकता है कि कोई दूरस्थ मानव ऑपरेटर रोबोटों का मार्गदर्शन कर रहा हो। ऐसी भी संभावना है कि एआई मार्गदर्शन का हिस्सा है, और एक दूरस्थ मानव ऑपरेटर भी ऐसा करता है, शायद एआई की सहायता करता है यदि रोबोट एक कठिन स्थिति में आ जाता है और कम्प्यूटेशनल रूप से खुद को मुक्त करने के लिए एक व्यवहार्य साधन की गणना नहीं कर सकता है।

यहां सार यह है कि एआई और स्वायत्त प्रणालियों और हथियारीकरण को कैसे मिश्रित किया जा सकता है, इसके कई पहलू हैं। कुछ में एआई है जो स्वायत्त प्रणाली चलाता है लेकिन हथियार नहीं चलाता है। एक इंसान शायद दूर से ही हथियार चलाता है। दूसरा पहलू यह है कि हथियार पहले से सक्रिय हो सकता है, और स्वायत्त प्रणाली सक्रिय हथियार को वितरित करती है, इस प्रकार एआई ने सीधे हथियार के ट्रिगरिंग में भाग नहीं लिया और इसके बजाय एक डिलीवरी वाहन के रूप में कार्य कर रहा था। और यह हो सकता है कि एआई एक लौकिक जैक-ऑफ-ऑल-ट्रेड है और हथियार के उपयोग के लिए स्वायत्त प्रणाली पहलुओं की संपूर्ण श्रृंखला भी करता है।

अपना चयन ले लो।

इस बीच, कृपया जान लें कि जब इस विषय पर बहस की बात आती है तो मानव-पाश एक बड़ा कारक होता है।

कुछ लोगों की विभाजन रेखा यह है कि यदि एआई लक्ष्यीकरण और शूटिंग कर रहा है (या जो भी हथियार शामिल है) तो पूरी किट और कैबूडल नो-नो लैंड में पार हो गए हैं। यह पारंपरिक अग्नि-और-भूल जाओ हथियारों से भिन्न प्रतीत होता है, जिसमें पूर्व-लक्षित मानव-निर्धारित चयन होता है, जैसे कि एक गश्ती ड्रोन जिसमें एक लक्ष्य पर फायरिंग के लिए मिसाइल तैयार होती है। पहले ही एक इंसान द्वारा चुना गया.

कुछ लोगों को आश्चर्य होता है कि जो स्वायत्त प्रणालियाँ हथियारबंद होती हैं उनमें स्वायत्त प्रणाली के सक्रिय रूप से चालू होने की प्रक्रिया के दौरान हमेशा एक मानव-इन-द-लूप शामिल क्यों नहीं होता है। ऐसा लगता है कि हम बेहतर स्थिति में हो सकते हैं यदि एक सख्त आवश्यकता यह हो कि ऐसी सभी हथियारयुक्त स्वायत्त प्रणालियों में एक मानव-इन-लूप होना चाहिए, या तो स्वायत्त प्रणाली के संचालन के लिए या हथियार के संचालन के लिए (या दोनों के लिए) ऐसा करना चाहिए। . इस एआई मिश्रण में एक निश्चित और स्थिर मानव हाथ रखना पूरी तरह से चतुराई भरा लग सकता है।

उन कारणों की एक लंबी सूची के लिए तैयार हो जाइए जिनकी वजह से यह आवश्यक रूप से संभव नहीं है।

इन कठिनाइयों पर विचार करें:

  • हो सकता है कि लूप में मौजूद मानव समय पर प्रतिक्रिया देने के लिए पर्याप्त तेज़ न हो
  • हो सकता है कि लूप में बैठे मानव के पास कर्तव्यनिष्ठा से प्रतिक्रिया देने के लिए पर्याप्त जानकारी न हो
  • हो सकता है कि ह्यूमन-इन-द-लूप आवश्यक समय पर उपलब्ध न हो
  • लूप में मौजूद मानव अनिर्णीत हो सकता है और आवश्यकता पड़ने पर कार्य नहीं करेगा
  • लूप में बैठा मानव "गलत" निर्णय ले सकता है (अपेक्षाकृत)
  • आवश्यक समय पर सिस्टम से ह्यूमन-इन-द-लूप तक पहुंच संभव नहीं हो सकती है
  • लूप में मौजूद मानव भ्रमित हो सकता है और अभिभूत हो सकता है
  • आदि

आप निस्संदेह मानवीय कमजोरियों और सीमाओं की उस सूची को देखने के लिए प्रलोभित होते हैं और फिर इस गंभीर निष्कर्ष पर पहुंचते हैं कि मानव-पाश को उत्तेजित करना और हमेशा इसके बजाय एआई का उपयोग करना स्पष्ट रूप से समझ में आता है। यह या तो ह्यूमन-इन-द-लूप को बाहर कर सकता है या हो सकता है कि एआई अंतर्निहित ह्यूमन-इन-द-लूप डिज़ाइन को ओवरराइड करने में सक्षम हो। एआई और मानव-इन-द-लूप के बीच असहमति कैसे अनिश्चित स्थितियों को जन्म दे सकती है, इसका मेरा विश्लेषण देखें, जिसे कवर किया गया है यहाँ लिंक.

अक्सर, इस प्रकार की वास्तविक समय की मानव-केंद्रित कमियों की एक छोटी सी सूची अपने आप ही छोड़ दी जाती है और यह एक लंबी छाप छोड़ती है कि एआई को किसी भी तरह छलांग लगानी चाहिए और लूप में मानव होने की तुलना में यह कहीं अधिक बुद्धिमान विकल्प है। . उस विश्वासघाती जाल में मत फंसो. इसमें गंभीर ट्रेडऑफ़ शामिल हैं।

एआई के इन प्रभावों पर विचार करें:

  • AI को किसी त्रुटि का सामना करना पड़ सकता है जिसके कारण वह भटक सकता है
  • एआई अभिभूत हो सकता है और अनुत्तरदायी रूप से लॉक हो सकता है
  • AI में डेवलपर बग हो सकते हैं जो अनियमित व्यवहार का कारण बनते हैं
  • एआई प्रत्यारोपित दुष्ट वायरस से दूषित हो सकता है
  • AI पर वास्तविक समय में साइबरहैकर्स का कब्ज़ा हो सकता है
  • जटिलताओं के कारण AI को अप्रत्याशित माना जा सकता है
  • AI कम्प्यूटेशनल रूप से "गलत" निर्णय ले सकता है (अपेक्षाकृत)
  • आदि

मुझे विश्वास है कि आप देख सकते हैं कि लूप में मानव का उपयोग करने बनाम पूरी तरह से एआई पर निर्भर रहने के बीच विरोधाभास है। यदि आप यह सुझाव देने के लिए प्रलोभित हैं कि तैयार समाधान दोनों का उपयोग करना है, तो मैं केवल इस बात पर जोर देना चाहूंगा कि आप दोनों दुनियाओं में से सर्वश्रेष्ठ प्राप्त कर सकते हैं, लेकिन आप दोनों दुनियाओं में से सबसे खराब भी प्राप्त कर सकते हैं। यह मत मानिए कि यह हमेशा और निश्चित रूप से दोनों दुनियाओं में सर्वश्रेष्ठ होगा।

आप एआई के बारे में ऊपर सूचीबद्ध कमियों में से एक से कुछ हद तक आश्चर्यचकित हो गए होंगे, विशेष रूप से एआई से अप्रत्याशित. हम यह मानने के आदी हैं कि एआई को पूरी तरह से तार्किक और गणितीय रूप से सटीक माना जाता है। वैसे, आप यह भी उम्मीद कर सकते हैं कि AI पूरी तरह से पूर्वानुमानित होगा। हमें ठीक-ठीक पता होना चाहिए कि एआई क्या करेगा। अवधि, कहानी का अंत.

उस गुब्बारे को फोड़ने के लिए खेद है लेकिन पूर्वानुमेयता का यह मिथक एक मिथ्या नाम है। आधुनिक एआई का आकार और जटिलता अक्सर एक ऐसी समस्या है जो पूरी तरह से पूर्वानुमानित होने से परे है। इसे आज के कुछ मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) उपयोगों के बारे में एथिकल एआई हंगामे में देखा जा रहा है। मैं क्षण भर में थोड़ा और समझाऊंगा।

इसके अलावा, आप एआई सुरक्षा में नवीनतम के माध्यम से सत्यापन योग्य और गणितीय रूप से सही एआई सिस्टम सुनिश्चित करने की दिशा में आगामी रुझानों के मेरे नवीनतम विश्लेषण पर एक नज़र डालना चाह सकते हैं। यहाँ लिंक.

सड़क के नियमों पर चिंतन

मैंने लक्ष्यों और लक्ष्यीकरण की धारणा का उल्लेख किया था, जो कि शब्दावली का एक बहुत बड़ा भाग है जिस पर विशेष ध्यान देने की आवश्यकता है।

हम इस पर विचार कर सकते हैं:

  • लक्ष्य जो मनुष्य हैं
  • लक्ष्य जो इंसान नहीं बल्कि जीवित प्राणी हैं
  • लक्ष्य जिन्हें संपत्ति के रूप में समझा जाता है

मान लीजिए कि हमारे पास एक स्वायत्त प्रणाली है जिसे हथियार बना दिया गया है। एआई का उपयोग स्वायत्त प्रणाली को निर्देशित करने और हथियार बनाने के लिए किया जाता है। एआई ए से ज़ेड तक सब कुछ करता है। लूप में मानव के लिए कोई प्रावधान नहीं है। लक्ष्यीकरण के संदर्भ में, AI लक्ष्यों का चयन करेगा। ऐसा कोई पूर्व-लक्ष्यीकरण नहीं है जो मनुष्यों द्वारा स्थापित किया गया हो। इसके बजाय, एआई को आम तौर पर यह पता लगाने के लिए प्रोग्राम किया गया है कि क्या ऐसे इंसान हैं जिन्हें निशाना बनाया जाना है (शायद शत्रुतापूर्ण कार्यों, कुछ प्रकार की वर्दी आदि के लिए स्कैनिंग)।

इस पर अब तक मेरे साथ?

यह परिदृश्य काफी हद तक ऐसा है जो हथियारयुक्त स्वायत्त प्रणालियों के बारे में सबसे अधिक आक्रोश का कारण बनता है।

बताई गई चिंता यह है कि एआई (कम से कम) तीन चीजें कर रहा है जिन्हें करने की उसे अनुमति नहीं दी जानी चाहिए:

  • लक्ष्य के तौर पर इंसानों को निशाना बनाना
  • मानव-इन-लूप के उपयोग के बिना लक्ष्यीकरण
  • संभावित रूप से अप्रत्याशित कार्य करनाly

ध्यान दें कि एआई के अप्रत्याशित होने के बारे में चिंताओं का उल्लेख किया गया है। ऐसा हो सकता है कि हालांकि एआई को कुछ विशेष प्रकार के मनुष्यों को लक्षित करने के लिए प्रोग्राम किया गया था, एआई प्रोग्रामिंग वह नहीं है जो हमने सोचा था, और एआई उन लोगों के अलावा "दोस्ताना" को भी लक्षित करता है जिन्हें एआई को "शत्रुतापूर्ण" माना जाता था। (या, शायद इसके बदले में)। इसके शीर्ष पर, भले ही हम मानव-इन-द-लूप प्रावधान को शामिल करने का विकल्प चुनते हैं, एआई की अप्रत्याशितता का मतलब यह हो सकता है कि जब एआई को मानव-इन-लूप प्रदान करना चाहिए, तो यह ऐसा करने में विफल रहता है इसलिए और बिना किसी मानवीय हस्तक्षेप के कार्य करता है।

आपको यह जानने में रुचि हो सकती है कि रेड क्रॉस की अंतर्राष्ट्रीय समिति (आईसीआरसी) ने स्वायत्त हथियार प्रणालियों के बारे में तीन-बिंदु व्यापक स्थिति पेश की है जो इस प्रकार की चिंताओं पर विस्तार से बताती है (आईसीआरसी वेबसाइट के अनुसार):

1. “अप्रत्याशित स्वायत्त हथियार प्रणालियों पर स्पष्ट रूप से शासन किया जाना चाहिए आउट, विशेष रूप से उनके अंधाधुंध प्रभावों के कारण। इसे स्वायत्त हथियार प्रणालियों पर प्रतिबंध लगाकर सबसे अच्छा हासिल किया जा सकता है, जिन्हें इस तरह से डिजाइन या उपयोग किया जाता है कि उनके प्रभावों को पर्याप्त रूप से समझा, भविष्यवाणी और समझाया नहीं जा सकता है।

2. "मानवता की रक्षा के लिए नैतिक विचारों के प्रकाश में, और नागरिकों और युद्ध के लड़ाकों की सुरक्षा के लिए अंतरराष्ट्रीय मानवीय कानून नियमों को बनाए रखने के लिए, मनुष्यों को निशाना बनाने के लिए स्वायत्त हथियार प्रणालियों के उपयोग से इंकार किया जाना चाहिए. इसे स्वायत्त हथियार प्रणालियों पर प्रतिबंध के माध्यम से सबसे अच्छा हासिल किया जाएगा जो व्यक्तियों के खिलाफ बल प्रयोग करने के लिए डिज़ाइन या उपयोग किए जाते हैं।

3. "नागरिकों और नागरिक वस्तुओं की सुरक्षा के लिए, अंतरराष्ट्रीय मानवीय कानून के नियमों को बनाए रखने और मानवता की रक्षा के लिए, स्वायत्त हथियार प्रणालियों के डिजाइन और उपयोग को नियंत्रित किया जाना चाहिए, जिन्हें प्रतिबंधित नहीं किया जाएगा, जिसमें निम्न का संयोजन शामिल है: लक्ष्य के प्रकार पर सीमाएँ, जैसे कि उन्हें उन वस्तुओं तक सीमित करना जो स्वभाव से सैन्य उद्देश्य हैं; अवधि, भौगोलिक दायरे और उपयोग के पैमाने पर सीमाएं, जिसमें किसी विशिष्ट हमले के संबंध में मानवीय निर्णय और नियंत्रण को सक्षम करना शामिल है; उपयोग की स्थितियों पर सीमाएं, जैसे कि उन्हें ऐसी स्थितियों में रोकना जहां नागरिक या नागरिक वस्तुएं मौजूद नहीं हैं; आरमानव-मशीन संपर्क के लिए आवश्यकताएँ, विशेष रूप से प्रभावी मानव पर्यवेक्षण और समय पर हस्तक्षेप और निष्क्रियता सुनिश्चित करने के लिए।

संबंधित दृष्टिकोण पर, ऑनलाइन पोस्ट की गई आधिकारिक रिपोर्ट के अनुसार, संयुक्त राष्ट्र (यूएन) ने जिनेवा में कुछ पारंपरिक हथियारों (सीसीडब्ल्यू) पर कन्वेंशन के माध्यम से घातक स्वायत्त हथियारों पर ग्यारह गैर-बाध्यकारी मार्गदर्शक सिद्धांतों की स्थापना की थी (प्रासंगिक अंतर्राष्ट्रीय मानवतावादी के संदर्भ सहित) कानून या IHL प्रावधान):

(ए) अंतर्राष्ट्रीय मानवीय कानून सभी हथियार प्रणालियों पर पूरी तरह से लागू होता है, जिसमें घातक स्वायत्त हथियार प्रणालियों का संभावित विकास और उपयोग शामिल है;

(बी) हथियार प्रणालियों के उपयोग पर निर्णय के लिए मानवीय जिम्मेदारी बरकरार रखी जानी चाहिए क्योंकि जवाबदेही मशीनों को हस्तांतरित नहीं की जा सकती है। हथियार प्रणाली के संपूर्ण जीवन चक्र में इस पर विचार किया जाना चाहिए;

(सी) मानव-मशीन संपर्क, जो विभिन्न रूप ले सकता है और हथियार के जीवन चक्र के विभिन्न चरणों में कार्यान्वित किया जा सकता है, को यह सुनिश्चित करना चाहिए कि घातक स्वायत्त हथियार प्रणालियों के क्षेत्र में उभरती प्रौद्योगिकियों के आधार पर हथियार प्रणालियों का संभावित उपयोग हो। लागू अंतरराष्ट्रीय कानून का अनुपालन, विशेष रूप से आईएचएल में। मानव-मशीन संपर्क की गुणवत्ता और सीमा का निर्धारण करने में, परिचालन संदर्भ और समग्र रूप से हथियार प्रणाली की विशेषताओं और क्षमताओं सहित कई कारकों पर विचार किया जाना चाहिए;

(डी) सीसीडब्ल्यू के ढांचे में किसी भी उभरती हथियार प्रणाली के विकास, तैनाती और उपयोग के लिए जवाबदेही लागू अंतरराष्ट्रीय कानून के अनुसार सुनिश्चित की जानी चाहिए, जिसमें मानव कमांड और नियंत्रण की एक जिम्मेदार श्रृंखला के भीतर ऐसी प्रणालियों का संचालन शामिल है;

(ई) अंतरराष्ट्रीय कानून के तहत राज्यों के दायित्वों के अनुसार, किसी नए हथियार, साधन या युद्ध के तरीके के अध्ययन, विकास, अधिग्रहण या अपनाने में, यह निर्धारण किया जाना चाहिए कि क्या इसका उपयोग, कुछ या सभी परिस्थितियों में किया जाएगा। अंतरराष्ट्रीय कानून द्वारा निषिद्ध;

(एफ) घातक स्वायत्त हथियार प्रणालियों, भौतिक सुरक्षा, उचित गैर-भौतिक सुरक्षा उपायों (हैकिंग या डेटा स्पूफिंग के खिलाफ साइबर सुरक्षा सहित) के क्षेत्र में उभरती प्रौद्योगिकियों के आधार पर नई हथियार प्रणालियों का विकास या अधिग्रहण करते समय, आतंकवादी समूहों द्वारा अधिग्रहण का जोखिम और प्रसार के जोखिम पर विचार किया जाना चाहिए;

(जी) जोखिम मूल्यांकन और शमन उपाय किसी भी हथियार प्रणाली में उभरती प्रौद्योगिकियों के डिजाइन, विकास, परीक्षण और तैनाती चक्र का हिस्सा होना चाहिए;

(ज) आईएचएल और अन्य लागू अंतरराष्ट्रीय कानूनी दायित्वों के अनुपालन को बनाए रखने में घातक स्वायत्त हथियार प्रणालियों के क्षेत्र में उभरती प्रौद्योगिकियों के उपयोग पर विचार किया जाना चाहिए;

(i) संभावित नीतिगत उपायों को तैयार करने में, घातक स्वायत्त हथियार प्रणालियों के क्षेत्र में उभरती प्रौद्योगिकियों को मानवरूपी नहीं बनाया जाना चाहिए;

(जे) सीसीडब्ल्यू के संदर्भ में की गई चर्चाओं और किसी भी संभावित नीतिगत उपाय से बुद्धिमान स्वायत्त प्रौद्योगिकियों के शांतिपूर्ण उपयोग में प्रगति या पहुंच में बाधा नहीं आनी चाहिए;

(के) सीसीडब्ल्यू कन्वेंशन के उद्देश्यों और उद्देश्यों के संदर्भ में घातक स्वायत्त हथियार प्रणालियों के क्षेत्र में उभरती प्रौद्योगिकियों के मुद्दे से निपटने के लिए एक उपयुक्त ढांचा प्रदान करता है, जो सैन्य आवश्यकता और मानवीय विचारों के बीच संतुलन बनाना चाहता है।

जिस दुविधा में हम खुद को पाते हैं

युद्ध के ये विभिन्न कानून, सशस्त्र संघर्ष के कानून, या आईएचएल (अंतर्राष्ट्रीय मानवतावादी कानून) इस बात पर विचार करने के लिए एक महत्वपूर्ण और हमेशा आशाजनक मार्गदर्शिका के रूप में कार्य करते हैं कि हम स्वायत्त प्रणालियों के आगमन के बारे में क्या करने की कोशिश कर सकते हैं जो कि हथियारयुक्त हैं, चाहे कीस्टोन डिजाइन द्वारा या तथ्यपरक तरीकों से।

हम ईमानदारी से चाह सकते हैं कि घातक हथियारयुक्त स्वायत्त प्रणालियों पर प्रतिबंध का सख्ती से और आज्ञाकारी ढंग से पालन किया जाएगा। समस्या यह है कि सबसे गंभीर प्रतिबंधों में से किसी में भी बहुत अधिक गुंजाइश पाई जाती है। जैसा कि वे कहते हैं, नियम तोड़ने के लिए ही होते हैं। आप शर्त लगा सकते हैं कि जहां चीजें ढीली-ढाली हैं, रिफ़्राफ़ कमियों को दूर करेगा और नियमों के इर्द-गिर्द अपना रास्ता बनाने की कोशिश करेगा।

यहां कुछ संभावित खामियां विचार योग्य हैं:

  • गैर-घातक का दावा। बनाना गैर-घातक स्वायत्त हथियार प्रणालियाँ (क्योंकि यह प्रतिबंध सीमा के बाहर है इसलिए ठीक प्रतीत होती है), जिसे आप एक पैसे में ही घातक बना सकते हैं (आप केवल अंतिम समय में ही प्रतिबंध से परे होंगे)।
  • केवल स्वायत्त व्यवस्था के दावे. घातक-केंद्रित स्वायत्त प्रणालियाँ न बनाकर प्रतिबंध को बरकरार रखें, इस बीच, रोजमर्रा की स्वायत्त प्रणालियों को तैयार करने में उतनी प्रगति करें जो (अभी तक) हथियारबंद नहीं हैं, लेकिन आप एक पैसे में उन्हें हथियारबंद बना सकते हैं।
  • एक के रूप में एकीकृत नहीं होने का दावा. ऐसी स्वायत्त प्रणालियाँ तैयार करें जो बिल्कुल भी हथियारयुक्त न हों, और जब समय आता है, तो पिग्गीबैक हथियारीकरण ऐसा कि आप दृढ़तापूर्वक यह तर्क देने का प्रयास कर सकते हैं कि वे दो अलग-अलग तत्व हैं और इसलिए तर्क देते हैं कि वे एक ऑल-इन-वन के दायरे में नहीं आते हैं। स्वायत्त हथियार प्रणाली या उसका चचेरा भाई।
  • दावा है कि यह स्वायत्त नहीं है. एक ऐसी हथियार प्रणाली बनाएं जो स्वायत्त क्षमताओं वाली न लगे। एआई-आधारित स्वायत्तता को ख़त्म करने के लिए इस संभवतः गैर-स्वायत्त प्रणाली में जगह छोड़ें। जब जरूरत हो, स्वायत्तता प्लग इन करें और आप रोल करने के लिए तैयार हैं (तब तक, प्रतीत होता है कि आप प्रतिबंध का उल्लंघन नहीं कर रहे थे)।
  • अन्य

घातक स्वायत्त हथियार प्रणालियों पर पूर्ण रूप से प्रतिबंध लगाने की कोशिश में कई अन्य कठिनाइयां व्यक्त की गई हैं। मैं उनमें से कुछ और को कवर करूंगा।

कुछ पंडितों का तर्क है कि प्रतिबंध विशेष रूप से उपयोगी नहीं है और इसके बजाय नियामक प्रावधान होने चाहिए। विचार यह है कि इन उपकरणों की अनुमति दी जाएगी लेकिन सख्ती से निगरानी की जाएगी। लक्ष्यीकरण के वैध तरीकों, क्षमताओं के वैध प्रकार, वैध आनुपातिकता और इसी तरह की अन्य बातों के साथ-साथ वैध उपयोगों की एक सूची तैयार की गई है।

उनके विचार में, सीधे-सीधे प्रतिबंध रेत में अपना सिर डालने और यह दिखावा करने जैसा है कि कमरे में हाथी मौजूद नहीं है। हालाँकि इस विवाद से उन लोगों का खून खौलने लगता है जो इस तर्क का विरोध करते हैं कि प्रतिबंध लगाकर आप इस प्रकार की प्रणालियों को आगे बढ़ाने के प्रलोभन को नाटकीय रूप से कम करने में सक्षम हैं। निश्चित रूप से, कुछ लोग प्रतिबंध का दिखावा करेंगे, लेकिन कम से कम उम्मीद है कि अधिकांश ऐसा नहीं करेंगे। फिर आप अपना ध्यान दिखावटी करने वालों पर केंद्रित कर सकते हैं और हर किसी पर अपना ध्यान केंद्रित नहीं करना पड़ेगा।

ये बहसें गोल-गोल चलती रहती हैं.

एक और चिंता जो अक्सर देखी जाती है वह यह है कि भले ही अच्छाई प्रतिबंध का पालन करती है, लेकिन बुरा नहीं। यह अच्छे-अच्छों को घटिया स्थिति में डाल देता है। बुरे लोगों के पास इस प्रकार की हथियारयुक्त स्वायत्त प्रणालियाँ होंगी और अच्छे लोगों के पास नहीं होंगी। एक बार जब चीजें उजागर हो जाती हैं कि उनमें बुराई है, तो अच्छाई को पकड़ने में बहुत देर हो जाएगी। संक्षेप में, एकमात्र बुद्धिमानी वाली बात आग से आग से लड़ने की तैयारी करना है।

क्लासिक निरोध विवाद भी है। यदि अच्छे लोग हथियारयुक्त स्वायत्त प्रणालियाँ बनाने का विकल्प चुनते हैं, तो इसका उपयोग बुरे लोगों को झगड़े में पड़ने से रोकने के लिए किया जा सकता है। या तो अच्छे लोग बेहतर ढंग से सशस्त्र होंगे और इस तरह बुरे को हतोत्साहित कर देंगे, या अच्छे तब तैयार होंगे जब बुरे लोग शायद यह प्रकट करेंगे कि वे गुप्त रूप से उन प्रणालियों को तैयार कर रहे हैं।

इन काउंटरों का एक प्रतिकार यह है कि हथियारयुक्त स्वायत्त प्रणालियाँ बनाकर, आप हथियारों की होड़ लगा रहे हैं। दूसरा पक्ष भी वैसा ही पाने की कोशिश करेगा। भले ही वे तकनीकी रूप से ऐसे सिस्टम को नए सिरे से बनाने में असमर्थ हों, वे अब "अच्छे" सिस्टम की योजनाओं को चुराने में सक्षम होंगे, हाई-टेक हिम्मत को रिवर्स इंजीनियर करेंगे, या जो कुछ भी उन्हें आजमाया हुआ और सच्चा लगता है उसकी नकल करने में सक्षम होंगे। काम पूरा करने का तरीका.

अहा, कुछ प्रत्युत्तर, यह सब परस्पर सहयोग से संघर्षों में कमी ला सकता है। यदि पक्ष ए को पता है कि पक्ष बी के पास वे घातक स्वायत्त प्रणाली के हथियार हैं, और पक्ष बी को पता है कि पक्ष ए के पास वे हैं, तो वे कसकर बैठ सकते हैं और मारपीट की स्थिति में नहीं आएंगे। इसमें पारस्परिक रूप से सुनिश्चित विनाश (एमएडी) वाइब्स की विशिष्ट आभा है।

और इतने पर.

स्वायत्तता में एआई

आइए सुनिश्चित करें कि आज के एआई की प्रकृति के बारे में हम एक ही पक्ष में हैं।

आज कोई ऐसा AI नहीं है जो संवेदनशील हो। हमारे पास यह नहीं है। हम नहीं जानते कि संवेदनशील एआई संभव होगा या नहीं। कोई भी उपयुक्त रूप से भविष्यवाणी नहीं कर सकता है कि क्या हम संवेदनशील एआई प्राप्त करेंगे, और न ही संवेदनशील एआई किसी तरह चमत्कारिक रूप से स्वचालित रूप से कम्प्यूटेशनल संज्ञानात्मक सुपरनोवा के रूप में उत्पन्न होगा (आमतौर पर विलक्षणता के रूप में संदर्भित, मेरा कवरेज देखें यहाँ लिंक).

जिस प्रकार के एआई पर मैं ध्यान केंद्रित कर रहा हूं वह गैर-संवेदी एआई है जो आज हमारे पास है। अगर हम बेतहाशा अटकलें लगाना चाहते हैं संवेदनशील एआई, यह चर्चा मौलिक रूप से अलग दिशा में जा सकती है। माना जाता है कि एक संवेदनशील एआई मानव गुणवत्ता का होगा। आपको यह विचार करना होगा कि संवेदनशील एआई मानव के संज्ञानात्मक समकक्ष है। इसके अलावा, चूंकि कुछ अनुमान लगाते हैं कि हमारे पास सुपर-इंटेलिजेंट एआई हो सकता है, यह कल्पना की जा सकती है कि ऐसा एआई इंसानों की तुलना में अधिक स्मार्ट हो सकता है (एक संभावना के रूप में सुपर-इंटेलिजेंट एआई की मेरी खोज के लिए, देखें यहाँ कवरेज).

आइए चीजों को और नीचे रखें और आज के कम्प्यूटेशनल गैर-संवेदी एआई पर विचार करें।

महसूस करें कि आज का AI किसी भी तरह से मानव सोच के समान "सोचने" में सक्षम नहीं है। जब आप एलेक्सा या सिरी के साथ बातचीत करते हैं, तो बातचीत की क्षमता मानवीय क्षमताओं के समान लग सकती है, लेकिन वास्तविकता यह है कि यह कम्प्यूटेशनल है और इसमें मानवीय ज्ञान का अभाव है। एआई के नवीनतम युग ने मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) का व्यापक उपयोग किया है, जो कम्प्यूटेशनल पैटर्न मिलान का लाभ उठाते हैं। इसने एआई सिस्टम को जन्म दिया है जिसमें मानव जैसी प्रवृत्तियों का आभास होता है। इस बीच, आज कोई ऐसा AI नहीं है जिसमें सामान्य ज्ञान की समानता हो और न ही मजबूत मानवीय सोच का कोई संज्ञानात्मक आश्चर्य हो।

आज के एआई का मानवरूपीकरण करते समय बहुत सावधान रहें।

एमएल/डीएल कम्प्यूटेशनल पैटर्न मिलान का एक रूप है। सामान्य तरीका यह है कि आप निर्णय लेने के कार्य के बारे में डेटा इकट्ठा करते हैं। आप डेटा को ML/DL कंप्यूटर मॉडल में फीड करते हैं। वे मॉडल गणितीय पैटर्न खोजने की कोशिश करते हैं। ऐसे पैटर्न खोजने के बाद, यदि ऐसा पाया जाता है, तो AI सिस्टम नए डेटा का सामना करते समय उन पैटर्न का उपयोग करेगा। नए डेटा की प्रस्तुति पर, वर्तमान निर्णय को प्रस्तुत करने के लिए "पुराने" या ऐतिहासिक डेटा पर आधारित पैटर्न लागू होते हैं।

मुझे लगता है कि आप अनुमान लगा सकते हैं कि यह कहाँ जा रहा है। यदि मानव जो निर्णयों पर प्रतिरूप बनाते रहे हैं, वे अवांछित पूर्वाग्रहों को शामिल कर रहे हैं, तो संभावना है कि डेटा इसे सूक्ष्म लेकिन महत्वपूर्ण तरीकों से दर्शाता है। मशीन लर्निंग या डीप लर्निंग कम्प्यूटेशनल पैटर्न मिलान केवल गणितीय रूप से डेटा की नकल करने की कोशिश करेगा। एआई-क्राफ्टेड मॉडलिंग के सामान्य ज्ञान या अन्य संवेदनशील पहलुओं की कोई समानता नहीं है।

इसके अलावा, एआई डेवलपर्स को एहसास नहीं हो सकता है कि क्या हो रहा है। एमएल/डीएल में रहस्यमय गणित अब छिपे हुए पूर्वाग्रहों को दूर करना मुश्किल बना सकता है। आप सही उम्मीद करेंगे और उम्मीद करेंगे कि एआई डेवलपर्स संभावित दफन पूर्वाग्रहों के लिए परीक्षण करेंगे, हालांकि यह जितना प्रतीत हो सकता है उससे कहीं अधिक कठिन है। एक ठोस मौका मौजूद है कि अपेक्षाकृत व्यापक परीक्षण के साथ भी एमएल/डीएल के पैटर्न मिलान मॉडल के भीतर अभी भी पूर्वाग्रह अंतर्निहित होंगे।

आप कुछ हद तक प्रसिद्ध या कुख्यात कहावत का उपयोग कर सकते हैं कचरा-कचरा-बाहर। बात यह है कि, यह पूर्वाग्रहों के समान है-इसमें एआई के भीतर डूबे हुए पूर्वाग्रहों के रूप में कपटी रूप से संक्रमित हो जाते हैं। एआई का एल्गोरिथम निर्णय लेने (एडीएम) स्वयंसिद्ध रूप से असमानताओं से भरा हो जाता है।

अच्छा नही।

उस अतिरिक्त मूलभूत पृष्ठभूमि के साथ, हम एक बार फिर स्वायत्त प्रणालियों और हथियारीकरण विषय पर आते हैं। हमने पहले देखा कि एआई स्वायत्त प्रणाली घटक में प्रवेश करता है और हथियारीकरण घटक में भी प्रवेश कर सकता है। आज का AI संवेदनशील नहीं है। यह दोहराने योग्य है और मैं इन मामलों में अतिरिक्त अंतर्दृष्टि के लिए इस पर प्रकाश डालूंगा।

आइए यह देखने के लिए कुछ परिदृश्यों का पता लगाएं कि यह एक महत्वपूर्ण विचार कैसे है। मैं क्षण भर के लिए इस विषय पर युद्धकालीन अभिविन्यास से बाहर निकलूंगा और दिखाऊंगा कि यह कैसे कई अन्य सामाजिक परिवेशों में व्याप्त है। उसी के अनुरूप स्वयं को स्थिर करें।

एक एआई-आधारित स्वायत्त प्रणाली जैसे कि एक स्वायत्त वाहन, जिसके बारे में हम कहेंगे कि इसका हथियारों से कोई लेना-देना नहीं है, एक सामान्य स्थान पर अपना रास्ता बना रहा है। एक मानव स्वायत्त वाहन का उपयोग करने के लिए आता है। वह व्यक्ति किसी पूर्वसूचक हथियार से लैस है। इस विशेष परिदृश्य में चर्चा के लिए मान लें कि व्यक्ति के मन में कुछ अप्रिय बात है। व्यक्ति स्वायत्त वाहन में चढ़ जाता है (अपना हथियार लेकर, छुपाकर या छिपाकर नहीं, किसी भी तरह से)।

स्वायत्त वाहन सवार द्वारा अनुरोध किए गए किसी भी गंतव्य के लिए आगे बढ़ता है। इस मामले में, एआई बस प्रोग्रामेटिक रूप से इस यात्री को एक पिकअप स्थान से निर्दिष्ट गंतव्य तक ले जा रहा है, जैसा कि यह संभवतः प्रत्येक दिन दर्जनों या सैकड़ों यात्राओं के लिए कर रहा है।

यदि यह एक मानव चालक और मानव-चालित वाहन होता, तो संभवतः कुछ संभावना होती है कि मानव चालक को एहसास होता कि यात्री हथियारों से लैस है और उसके इरादे अप्रिय हैं। मानव चालक वाहन चलाने से इंकार कर सकता है। या मानव चालक पुलिस स्टेशन तक गाड़ी चला सकता है। या हो सकता है कि मानव चालक सशस्त्र यात्री को वश में करने की कोशिश कर सकता है (रिपोर्ट किए गए उदाहरण मौजूद हैं) या यात्री को अपने हथियार का उपयोग करने से रोक सकता है। यह काफी जटिल है और इसमें किसी भी प्रकार की विविधताएं मौजूद हो सकती हैं। आपको यह कहने में कठिनाई होगी कि ऐसी दुविधा को हल करने का केवल एक ही सही उत्तर है। अफसोस की बात है कि स्थिति चिंताजनक और स्पष्ट रूप से खतरनाक है।

इस मामले में एआई को किसी भी प्रकार की संभावनाओं के लिए प्रोग्राम किए जाने की संभावना नहीं है। संक्षेप में, सशस्त्र यात्री ड्राइविंग यात्रा के दौरान, स्वायत्त वाहन के भीतर से अपने हथियार का उपयोग करने में सक्षम हो सकता है। एआई ड्राइविंग प्रणाली साथ चलती रहेगी और स्वायत्त वाहन यात्री के बताए गए पदनाम की ओर बढ़ता रहेगा (यह मानते हुए कि गंतव्य को अन्यथा सीमा से बाहर नहीं माना जाता था)।

अधिकांश समकालीन एआई ड्राइविंग सिस्टम कम्प्यूटेशनल रूप से केवल सड़क पर ध्यान केंद्रित करेंगे, न कि सवार के प्रयासों पर।

हालात इससे भी बदतर हो सकते हैं.

मान लीजिए कि कोई किराने का सामान ऐसे स्थान पर पहुंचाना चाहता है जो जरूरतमंदों के लिए अतिरिक्त भोजन ले जाए। व्यक्ति एक स्वायत्त वाहन का अनुरोध करता है और किराने के सामान के बैग वाहन की पिछली सीट पर रखता है। वे सवारी के लिए साथ नहीं जा रहे हैं और केवल उनके लिए भोजन की थैलियां पहुंचाने के लिए स्वायत्त वाहन का उपयोग कर रहे हैं।

बिल्कुल ठीक लग रहा है.

कल्पना करें कि एक कायर व्यक्ति किराने की थैलियों की अधिक शांतिपूर्ण धारणा के बजाय स्वायत्त वाहन में किसी प्रकार का हथियार डालने का विकल्प चुनता है। मुझे लगता है कि आप अनुमान लगा सकते हैं कि क्या हो सकता है। यह एक ऐसी चिंता है जिसे मैं अपने कॉलमों में बार-बार उजागर करता रहा हूं और आगाह करता रहा हूं कि हमें जल्द से जल्द इससे निपटने की जरूरत है।

इस प्रकार के परिदृश्यों पर एक प्रस्तावित प्रतिक्रिया यह है कि शायद सभी स्वायत्त वाहनों को अपने कैमरों और अन्य सेंसरों का उपयोग करके यह पता लगाने के लिए प्रोग्राम किया जा सकता है कि क्या कोई संभावित यात्री सशस्त्र है और उसके नापाक इरादे हैं। शायद एआई को ऐसा करने के लिए प्रोग्राम किया गया होगा। या एआई इलेक्ट्रॉनिक रूप से और चुपचाप एक दूरस्थ मानव ऑपरेटर को सचेत करता है जो फिर कैमरे के माध्यम से दृश्य और अन्यथा जांच करेगा और संभवतः यात्री के साथ बातचीत करेगा। यह सभी जटिल और संभावित रूप से असाध्य कीड़ों का हिस्सा है, जैसे कि यह गहन गोपनीयता मुद्दों और अन्य संभावित नैतिक एआई चिंताओं को उठाता है। मेरा कवरेज यहां देखें यहाँ लिंक.

एक और कुछ समान विकल्प यह है कि एआई में कुछ प्रकार की एम्बेडेड नैतिकता प्रोग्रामिंग शामिल है जो एआई को नैतिक या नैतिक निर्णय लेने में सक्षम बनाने की कोशिश करती है जो आम तौर पर मानव निर्णय निर्माताओं के लिए आरक्षित होती है। मैंने एआई-एम्बेडेड कम्प्यूटेशनल एथिक्स प्रोग्नोस्टिकेटर्स के इन तैयार प्रकारों की जांच की है, देखें यहाँ लिंक और यहाँ लिंक.

युद्ध के मैदान के परिदृश्य पर वापस जाते हुए, कल्पना करें कि एक घातक स्वायत्त हथियार प्रणाली युद्ध क्षेत्र के ऊपर मंडरा रही है। एआई स्वायत्त प्रणाली का संचालन कर रहा है। एआई जहाज पर हथियारों का संचालन कर रहा है। हमने पहले इस संभावना की कल्पना की थी कि एआई को वैध लड़ाकों के रूप में समझे जाने वाले मानव लक्ष्यों के प्रतीत होने वाले शत्रुतापूर्ण आंदोलनों या अन्य संकेतकों को स्कैन करने के लिए प्रोग्राम किया जा सकता है।

क्या इसी एआई में किसी प्रकार का नैतिक-उन्मुख घटक होना चाहिए जो कम्प्यूटेशनल रूप से इस बात पर विचार करने का प्रयास करता है कि लूप में मानव होने के स्थान पर मानव-इन-द-लूप क्या कर सकता है?

कुछ लोग कहते हैं हां, चलो इसे आगे बढ़ाएं। कुछ लोग भयभीत होकर पीछे हट जाते हैं और कहते हैं कि यह या तो असंभव है या अन्यथा मानवता की पवित्रता का उल्लंघन करता है।

फिर भी कीड़ों का एक और डिब्बा।

निष्कर्ष

आपमें से जो लोग इस विषय में रुचि रखते हैं, उनके लिए चर्चा करने के लिए और भी बहुत कुछ है।

मैं तुम्हें एक परेशान करने वाली पहेली का त्वरित स्वाद बताऊंगा।

हम आम तौर पर उम्मीद करते हैं कि युद्ध के दौरान जो कुछ भी होता है उसके लिए अंततः एक इंसान को जिम्मेदार ठहराया जाएगा। यदि एआई एक स्वायत्त हथियार प्रणाली को नियंत्रित कर रहा है या एक स्वायत्त प्रणाली को नियंत्रित कर रहा है जिसे संभवतः हथियारीकृत किया गया है, और यह प्रणाली युद्ध के मैदान पर कुछ ऐसा करती है जिसे अचेतन माना जाता है, तो इसके लिए किसे या किसे दोषी ठहराया जाना चाहिए?

आप तर्क दे सकते हैं कि एआई को जवाबदेह ठहराया जाना चाहिए। लेकिन, यदि हां, तो इसका वास्तव में क्या मतलब है? हम अभी तक आज के एआई को कानूनी व्यक्तित्व का अवतार नहीं मानते हैं, मेरा स्पष्टीकरण यहां देखें यहाँ लिंक. एआई के मामले में गधे पर पूंछ नहीं टिकाई जा सकती। शायद अगर किसी दिन एआई संवेदनशील हो जाए, तो आप ऐसा करने का प्रयास कर सकते हैं। तब तक, यह थोड़ी पहुंच है (साथ ही, एआई किस प्रकार के दंड या नतीजों के अधीन होगा, मेरा विश्लेषण यहां देखें) यहाँ लिंक और यहाँ लिंक, उदाहरण के लिए)।

यदि एआई जवाबदेह संदिग्ध नहीं है, तो हम स्वाभाविक रूप से कह सकते हैं कि एआई को तैयार करने वाले किसी भी मानव या मानव को जवाबदेह ठहराया जाना चाहिए। क्या आप ऐसा कर सकते हैं यदि एआई केवल एक स्वायत्त प्रणाली चला रहा था और कुछ इंसान आए और इसे हथियारीकरण के साथ जोड़ दिया? क्या आप एआई डेवलपर्स के पीछे जाते हैं? या वे जिन्होंने एआई तैनात किया? या सिर्फ हथियार बनाने वाला अभिनेता?

मुझे विश्वास है कि आप यह समझ गए होंगे कि मैंने अपनी हार्दिक चर्चा में केवल हिमशैल के सिरे को छुआ है।

फिलहाल, आइए आगे बढ़ें और इस प्रवचन को समाप्त करें। आपको शायद जॉन लिली याद होगा यूफ़्यूज़: द एनाटॉमी ऑफ़ विट 1578 में स्मरणीय रूप से कहा गया कि प्रेम और युद्ध में सब कुछ उचित है।

क्या उसके मन में स्वायत्त हथियार प्रणालियों का उद्भव और इसी प्रकार हथियारयुक्त स्वायत्त प्रणालियों का आगमन भी रहा होगा?

हमें निश्चित रूप से इसे तुरंत अपने दिमाग में सबसे ऊपर रखने की जरूरत है।

स्रोत: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-आधारित-autonomous- हथियार-प्रणालियाँ-और-एआई-संचालित-स्वायत्त-प्रणालियों-का-शोषण-जो-शैतानी-हथियार-युक्त हैं/