एआई एथिक्स और एआई लॉ ने डांसिंग रोबोट मेकर्स द्वारा उस नई प्रतिज्ञा के बारे में कठिन सवाल पूछते हुए कहा कि वे एआई शस्त्रीकरण को रोक देंगे

हो सकता है कि आपने पिछले सप्ताह समाचारों में देखा हो या सोशल मीडिया पर देखा हो कि कुछ रोबोट निर्माताओं द्वारा सामान्य उद्देश्य वाले रोबोटों के एआई हथियारकरण से बचने के अपने घोषित उद्देश्य के बारे में घोषणा की गई है। मैं आपको एक पल में विवरण के माध्यम से चल रहा हूँ, इसलिए चिंता न करें यदि आपने मामले की हवा नहीं पकड़ी है।

इस उद्घोषणा की प्रतिक्रिया तेज रही है और शायद हमेशा की तरह हमारे ध्रुवीकृत समाज में, दोनों प्रशंसनीय और कभी-कभी मजाक में आलोचनात्मक या पूरी तरह से संदेहपूर्ण रहे हैं।

यह दो दुनियाओं की कहानी है।

एक दुनिया में, कुछ लोग कहते हैं कि ठीक यही हमें चाहिए जिम्मेदार एआई रोबोट डेवलपर्स घोषित करने के लिए।

एक मुद्दे के दाईं ओर होने के लिए भगवान का शुक्र है जो धीरे-धीरे अधिक दृश्यमान और अधिक चिंताजनक होता जा रहा है। वे प्यारे डांसिंग रोबोट परेशान कर रहे हैं क्योंकि उन्हें हथियार ले जाने और सबसे खराब तरीकों से इस्तेमाल करने के लिए फिर से तैयार करना बहुत आसान है (आप सोशल मीडिया पर जाकर खुद इसकी जांच कर सकते हैं और मशीनगनों से लैस डांसिंग रोबोटों को दिखाने वाले भरपूर वीडियो हैं और अन्य हथियार)।

इस सिक्के का दूसरा पक्ष कहता है कि तथाकथित प्रतिज्ञा एक विपणन या जनसंपर्क चाल से ज्यादा कुछ नहीं है (एक साइड नोट के रूप में, क्या कोई प्रतिज्ञा और दान के बीच के अंतर से परिचित है?) वैसे भी, संदेह करने वालों का कहना है कि यह बेलगाम गुण है जो नाचने वाले रोबोट के संदर्भ में संकेत देता है। आप देखते हैं, इस तथ्य पर शोक व्यक्त करते हुए कि सामान्य प्रयोजन के रोबोटों को हथियार बनाया जा सकता है, निश्चित रूप से एक सार्थक और ईमानदारी से मांगा गया विचार है, हालांकि केवल यह दावा करना कि एक निर्माता ऐसा नहीं करेगा, संभवतः एक खोखला वादा है, कुछ जोर देते हैं।

कुल मिलाकर, पूरा मामला एआई एथिक्स और एआई कानून के विचारों का एक बड़ा सेट लाता है। हम सावधानीपूर्वक विषय को खोलेंगे और देखेंगे कि यह कैसे एक नैतिक और कानूनी एआई मोरस की दोहरी मार है। एआई एथिक्स और एआई लॉ के मेरे चल रहे और व्यापक कवरेज के लिए, देखें यहाँ लिंक और यहाँ लिंक, कुछ लोगों का नाम बताने के लिए।

मैं इस पूरी चर्चा में एआई हथियारकरण के खतरों के अपने पूर्व विश्लेषणों का भी उल्लेख करूंगा, जैसे कि मेरा गहन मूल्यांकन यहाँ लिंक. आप अतिरिक्त परदे के पीछे के विवरण के लिए उस प्रवचन पर एक नज़र डालना चाह सकते हैं।

खुला पत्र जो कीड़ों का डिब्बा खोलता है

आइए इस विश्लेषण को ओपन लेटर की सावधानीपूर्वक चरण-दर-चरण अन्वेषण करके शुरू करें, जिसे हाल ही में छह अपेक्षाकृत प्रसिद्ध उन्नत रोबोट निर्माताओं, बोस्टन डायनेमिक्स, क्लियरपाथ रोबोटिक्स, एनीबोटिक्स, एजिलिटी रोबोटिक्स, ओपन रोबोटिक्स और यूनिट्री द्वारा प्रकाशित किया गया था। मोटे तौर पर, मैं अनुमान लगा रहा हूं कि आपने मुख्य रूप से बोस्टन डायनेमिक्स रोबोट देखे हैं, जैसे कि वे जो चारों तरफ घूमते हैं। वे ऐसे दिखते हैं जैसे वे कुत्ते की तरह हैं और हम उन्हें इधर-उधर भागते हुए देखकर आनंदित होते हैं।

जैसा कि मैंने पहले और बार-बार चेतावनी दी है, इस तरह के "नृत्य" रोबोटों का उपयोग आम जनता को यह समझाने के साधन के रूप में किया जाता है कि ये रोबोट प्यारे और मनमोहक हैं, दुखद रूप से भ्रामक हैं और उन्हें एंथ्रोपोमोर्फिंग के प्रचुर नुकसान में बदल देते हैं। हम धातु और प्लास्टिक के इन कठोर टुकड़ों के बारे में सोचने लगते हैं जैसे कि वे एक वफादार कुत्ते के बराबर हैं। इन रोबोटों को स्वीकार करने की हमारी इच्छा सुरक्षा और आश्वासन की झूठी भावना पर आधारित है। निश्चित रूप से, आपको एक पैसा बनाना होगा और ऐसा करने की संभावना नृत्य करने वाले रोबोटों के आसपास परेड करके बढ़ जाती है, लेकिन यह खेदजनक रूप से वास्तविक तथ्य को छोड़ देता है या छुपाता है कि ये रोबोट रोबोट हैं और रोबोट को नियंत्रित करने वाले एआई को गलत तरीके से तैयार किया जा सकता है या भटक जाना।

एआई के इन प्रभावों पर विचार करें (एआई हथियारकरण पर मेरे लेख से अंश, यहां पाया गया यहाँ लिंक):

  • AI को किसी त्रुटि का सामना करना पड़ सकता है जिसके कारण वह भटक सकता है
  • एआई अभिभूत हो सकता है और अनुत्तरदायी रूप से लॉक हो सकता है
  • AI में डेवलपर बग हो सकते हैं जो अनियमित व्यवहार का कारण बनते हैं
  • एआई प्रत्यारोपित दुष्ट वायरस से दूषित हो सकता है
  • AI पर वास्तविक समय में साइबरहैकर्स का कब्ज़ा हो सकता है
  • जटिलताओं के कारण AI को अप्रत्याशित माना जा सकता है
  • AI कम्प्यूटेशनल रूप से "गलत" निर्णय ले सकता है (अपेक्षाकृत)
  • आदि

वे एआई के बारे में ऐसे बिंदु हैं जो उस प्रकार के हैं जो वास्तव में सही काम करने के लिए तैयार किए गए हैं।

उन विचारों के शीर्ष पर, आपको खराब काम करने के लिए शुरुआत से तैयार किए गए एआई सिस्टम को शामिल करना होगा। आपके पास AI हो सकता है जो लाभकारी उद्देश्यों के लिए बनाया गया है, जिसे अक्सर कहा जाता है एआई फॉर गुड. आपके पास AI भी हो सकता है जिसे जानबूझकर बुरे उद्देश्यों के लिए बनाया गया है, जिसे के रूप में जाना जाता है एआई फॉर बैड. इसके अलावा, आपके पास हो सकता है एआई फॉर गुड जो भ्रष्ट हो गया है या बनने में बदल गया है एआई फॉर बैड.

वैसे, इसका एआई के संवेदनशील होने से कोई लेना-देना नहीं है, जिसका मैं उल्लेख करता हूं क्योंकि कुछ लोग यह कहते रहते हैं कि आज का एआई या तो संवेदनशील है या संवेदनशील होने के कगार पर है। ऐसा नहीं। मैं अपने विश्लेषण में उन मिथकों को अलग करता हूं यहाँ लिंक.

आइए सुनिश्चित करें कि हम आज के एआई की प्रकृति के बारे में एक ही पृष्ठ पर हैं।

आज कोई ऐसा AI नहीं है जो संवेदनशील हो। हमारे पास यह नहीं है। हम नहीं जानते कि संवेदनशील एआई संभव होगा या नहीं। कोई भी उपयुक्त रूप से भविष्यवाणी नहीं कर सकता है कि क्या हम संवेदनशील एआई प्राप्त करेंगे, और न ही संवेदनशील एआई किसी तरह चमत्कारिक रूप से स्वचालित रूप से कम्प्यूटेशनल संज्ञानात्मक सुपरनोवा के रूप में उत्पन्न होगा (आमतौर पर विलक्षणता के रूप में संदर्भित, मेरा कवरेज देखें यहाँ लिंक).

जिस प्रकार के एआई पर मैं ध्यान केंद्रित कर रहा हूं वह गैर-संवेदी एआई है जो आज हमारे पास है। अगर हम संवेदनशील एआई के बारे में बेतहाशा अटकलें लगाना चाहते हैं, तो यह चर्चा मौलिक रूप से अलग दिशा में जा सकती है। माना जाता है कि एक संवेदनशील एआई मानव गुणवत्ता का होगा। आपको यह विचार करना होगा कि संवेदनशील एआई मानव के संज्ञानात्मक समकक्ष है। इसके अलावा, चूंकि कुछ अनुमान लगाते हैं कि हमारे पास सुपर-इंटेलिजेंट एआई हो सकता है, यह अनुमान योग्य है कि ऐसा एआई इंसानों की तुलना में अधिक स्मार्ट हो सकता है (एक संभावना के रूप में सुपर-इंटेलिजेंट एआई की मेरी खोज के लिए, देखें यहाँ कवरेज).

मैं दृढ़ता से सुझाव दूंगा कि हम चीजों को जमीन पर रखें और आज के कम्प्यूटेशनल गैर-संवेदी एआई पर विचार करें।

महसूस करें कि आज का AI किसी भी तरह से मानव सोच के समान "सोचने" में सक्षम नहीं है। जब आप एलेक्सा या सिरी के साथ बातचीत करते हैं, तो बातचीत की क्षमता मानवीय क्षमताओं के समान लग सकती है, लेकिन वास्तविकता यह है कि यह कम्प्यूटेशनल है और इसमें मानवीय ज्ञान का अभाव है। एआई के नवीनतम युग ने मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) का व्यापक उपयोग किया है, जो कम्प्यूटेशनल पैटर्न मिलान का लाभ उठाते हैं। इसने एआई सिस्टम को जन्म दिया है जिसमें मानव जैसी प्रवृत्तियों का आभास होता है। इस बीच, आज कोई ऐसा AI नहीं है जिसमें सामान्य ज्ञान की समानता हो और न ही मजबूत मानवीय सोच का कोई संज्ञानात्मक आश्चर्य हो।

आज के एआई का मानवरूपीकरण करते समय बहुत सावधान रहें।

एमएल/डीएल कम्प्यूटेशनल पैटर्न मिलान का एक रूप है। सामान्य तरीका यह है कि आप निर्णय लेने के कार्य के बारे में डेटा इकट्ठा करते हैं। आप डेटा को ML/DL कंप्यूटर मॉडल में फीड करते हैं। वे मॉडल गणितीय पैटर्न खोजने की कोशिश करते हैं। ऐसे पैटर्न खोजने के बाद, यदि ऐसा पाया जाता है, तो AI सिस्टम नए डेटा का सामना करते समय उन पैटर्न का उपयोग करेगा। नए डेटा की प्रस्तुति पर, वर्तमान निर्णय को प्रस्तुत करने के लिए "पुराने" या ऐतिहासिक डेटा पर आधारित पैटर्न लागू होते हैं।

मुझे लगता है कि आप अनुमान लगा सकते हैं कि यह कहाँ जा रहा है। यदि मानव जो निर्णयों पर प्रतिरूप बनाते रहे हैं, वे अवांछित पूर्वाग्रहों को शामिल कर रहे हैं, तो संभावना है कि डेटा इसे सूक्ष्म लेकिन महत्वपूर्ण तरीकों से दर्शाता है। मशीन लर्निंग या डीप लर्निंग कम्प्यूटेशनल पैटर्न मिलान केवल गणितीय रूप से डेटा की नकल करने की कोशिश करेगा। एआई-क्राफ्टेड मॉडलिंग के सामान्य ज्ञान या अन्य संवेदनशील पहलुओं की कोई समानता नहीं है।

इसके अलावा, एआई डेवलपर्स को एहसास नहीं हो सकता है कि क्या हो रहा है। एमएल/डीएल में रहस्यमय गणित अब छिपे हुए पूर्वाग्रहों को दूर करना मुश्किल बना सकता है। आप सही उम्मीद करेंगे और उम्मीद करेंगे कि एआई डेवलपर्स संभावित दफन पूर्वाग्रहों के लिए परीक्षण करेंगे, हालांकि यह जितना प्रतीत हो सकता है उससे कहीं अधिक कठिन है। एक ठोस मौका मौजूद है कि अपेक्षाकृत व्यापक परीक्षण के साथ भी एमएल/डीएल के पैटर्न-मिलान मॉडल के भीतर पूर्वाग्रह अभी भी अंतर्निहित होंगे।

आप कुछ हद तक प्रसिद्ध या कुख्यात कहावत का उपयोग कर सकते हैं कचरा-कचरा-बाहर। बात यह है कि, यह पूर्वाग्रहों के समान है-इसमें एआई के भीतर डूबे हुए पूर्वाग्रहों के रूप में कपटी रूप से संक्रमित हो जाते हैं। एआई का एल्गोरिथम निर्णय लेने (एडीएम) स्वयंसिद्ध रूप से असमानताओं से भरा हो जाता है।

अच्छा नही।

इन सबका विशेष रूप से महत्वपूर्ण एआई एथिक्स निहितार्थ है और जब एआई को कानून बनाने की कोशिश करने की बात आती है तो सीखे गए पाठों (यहां तक ​​​​कि सभी पाठ होने से पहले) में एक आसान विंडो प्रदान करता है।

सामान्य रूप से एआई नैतिकता के नियमों को लागू करने के अलावा, एक समान प्रश्न है कि क्या हमारे पास एआई के विभिन्न उपयोगों को नियंत्रित करने के लिए कानून होना चाहिए। नए कानूनों को संघीय, राज्य और स्थानीय स्तरों पर बांधा जा रहा है जो इस बात से संबंधित हैं कि एआई को कैसे तैयार किया जाना चाहिए। ऐसे कानूनों का मसौदा तैयार करने और उन्हें अधिनियमित करने का प्रयास धीरे-धीरे किया जाता है। एआई एथिक्स बहुत कम से कम एक सुविचारित स्टॉपगैप के रूप में कार्य करता है, और लगभग निश्चित रूप से कुछ हद तक सीधे उन नए कानूनों में शामिल किया जाएगा।

ध्यान रखें कि कुछ लोग दृढ़ता से तर्क देते हैं कि हमें एआई को कवर करने वाले नए कानूनों की आवश्यकता नहीं है और हमारे मौजूदा कानून पर्याप्त हैं। उन्होंने चेतावनी दी है कि अगर हम इनमें से कुछ एआई कानूनों को लागू करते हैं, तो हम एआई में प्रगति पर रोक लगाकर सुनहरी हंस को मार देंगे जो कि अत्यधिक सामाजिक लाभ प्रदान करते हैं।

पिछले कॉलम में, मैंने एआई को विनियमित करने वाले कानूनों को तैयार करने और अधिनियमित करने के विभिन्न राष्ट्रीय और अंतर्राष्ट्रीय प्रयासों को कवर किया है, देखें यहाँ लिंक, उदाहरण के लिए। मैंने विभिन्न एआई नैतिकता सिद्धांतों और दिशानिर्देशों को भी कवर किया है जिन्हें विभिन्न देशों ने पहचाना और अपनाया है, उदाहरण के लिए संयुक्त राष्ट्र के प्रयास जैसे कि एआई एथिक्स का यूनेस्को सेट जिसे लगभग 200 देशों ने अपनाया है, देखें यहाँ लिंक.

यहां एआई सिस्टम के बारे में नैतिक एआई मानदंड या विशेषताओं की एक सहायक कीस्टोन सूची है जिसे मैंने पहले बारीकी से खोजा है:

  • ट्रांसपेरेंसी
  • न्याय और निष्पक्षता
  • गैर-नुकसान
  • उत्तरदायित्व
  • निजता
  • उपकार
  • स्वतंत्रता और स्वायत्तता
  • ट्रस्ट
  • स्थिरता
  • गौरव
  • एकजुटता

उन एआई नैतिकता सिद्धांतों को एआई डेवलपर्स द्वारा ईमानदारी से उपयोग किया जाना चाहिए, साथ ही एआई विकास प्रयासों का प्रबंधन करने वाले, और यहां तक ​​​​कि वे जो अंततः एआई सिस्टम पर क्षेत्र और रखरखाव करते हैं।

विकास और उपयोग के पूरे एआई जीवन चक्र में सभी हितधारकों को नैतिक एआई के स्थापित मानदंडों के पालन के दायरे में माना जाता है। यह एक महत्वपूर्ण हाइलाइट है क्योंकि सामान्य धारणा यह है कि "केवल कोडर्स" या एआई प्रोग्राम करने वाले एआई एथिक्स धारणाओं का पालन करने के अधीन हैं। जैसा कि यहां पहले जोर दिया गया है, एआई को विकसित करने और क्षेत्र में लाने के लिए एक गाँव की आवश्यकता होती है, और जिसके लिए पूरे गाँव को एआई एथिक्स के नियमों से वाकिफ और उसका पालन करना पड़ता है।

अब जबकि मैंने ओपन लेटर में प्रवेश करने के लिए एक सहायक नींव रखी है, हम इसमें गोता लगाने के लिए तैयार हैं।

ओपन लेटर का आधिकारिक विषय शीर्षक यह है:

  • "रोबोटिक्स उद्योग और हमारे समुदायों के लिए एक खुला पत्र, सामान्य प्रयोजन के रोबोटों को हथियार नहीं बनाया जाना चाहिए"(ऑनलाइन पोस्ट के अनुसार)।

अब तक सब ठीक है।

शीर्षक लगभग आइसक्रीम और सेब पाई जैसा लगता है। एआई रोबोट के शस्त्रीकरण से बचने के लिए पूर्ववर्ती कॉल के रूप में कोई इस पर विवाद कैसे कर सकता है?

देखने के लिए पढ़ें।

सबसे पहले, विचार के लिए चारे के रूप में, यहाँ ओपन लेटर का आधिकारिक उद्घाटन पैराग्राफ है:

  • "हम दुनिया की कुछ अग्रणी कंपनियां हैं जो समाज के लिए उन्नत मोबाइल रोबोटिक्स की नई पीढ़ी को पेश करने के लिए समर्पित हैं। रोबोट की ये नई पीढ़ी पिछली पीढ़ियों की तुलना में अधिक सुलभ, संचालित करने में आसान, अधिक स्वायत्त, सस्ती और अनुकूलनीय हैं, और उन स्थानों पर नेविगेट करने में सक्षम हैं जो पहले स्वचालित या दूर से नियंत्रित प्रौद्योगिकियों के लिए दुर्गम थे। हम मानते हैं कि उन्नत मोबाइल रोबोट समाज को उद्योग में सहकर्मियों और हमारे घरों में साथी के रूप में बहुत लाभ प्रदान करेंगे" (ऑनलाइन पोस्ट के अनुसार)।

इस प्रकार के रोबोटों के आगमन का सबसे अच्छा पहलू यह है कि हम बहुत सारे बड़े लाभों के उभरने की आशा कर सकते हैं। कोई संदेह नही। आपके घर में एक रोबोट हो सकता है जो जेटसन जैसी गतिविधियाँ कर सकता है जैसे कि आपके घर की सफाई करना, आपके बर्तन धोना और घर के अन्य काम। हमारे पास कारखानों और विनिर्माण सुविधाओं में उपयोग के लिए उन्नत रोबोट होंगे। रोबोट संभावित रूप से रेंग सकते हैं या तंग जगहों में पैंतरेबाज़ी कर सकते हैं जैसे कि जब कोई इमारत गिरती है और मानव जीवन को बचाने के लिए दांव पर लगा हो। और इसी तरह।

एक तरफ के रूप में, आप टेस्ला एआई दिवस के मेरे हालिया आंख-महत्वपूर्ण कवरेज में रुचि पा सकते हैं, जिस पर एलोन मस्क द्वारा टेस्ला और समाज के भविष्य के रूप में कुछ प्रकार के चलने वाले रोबोटों को चित्रित किया गया था, देखें यहाँ लिंक.

हाथ में लिए गए मामले पर वापस। डांसिंग रोबोट या वॉकिंग रोबोट पर गंभीरता से चर्चा करते समय, हमें एआई के इस उपयोग के ट्रेडऑफ़ या कुल आरओआई (निवेश पर वापसी) को ध्यान में रखना होगा। हमें अपने आप को लाभों के प्रति अत्यधिक आसक्त नहीं होने देना चाहिए जब विचार करने के लिए लागतें भी हों।

एक चमकदार नए खिलौने में नुकीले किनारे हो सकते हैं।

यह सब एक महत्वपूर्ण लेकिन कुछ हद तक मौन बिंदु है कि एआई हथियारकरण के मुद्दे का कारण अब स्वायत्त गतिविधि की ओर एआई उन्नति के कारण है। हमने आमतौर पर उम्मीद की है कि हथियार आम तौर पर मानव संचालित होते हैं। एक इंसान तय करता है कि हथियार चलाना है या नहीं। हम संभवतः उस मानव को उनके कार्यों के लिए जवाबदेह ठहरा सकते हैं।

AI जिसे स्वायत्त रूप से काम करने के लिए तैयार किया गया है या जिसे ऐसा करने के लिए बरगलाया जा सकता है, वह प्रतीत होता है कि मानव को पाश से हटा देगा। एआई तब एल्गोरिदमिक रूप से कम्प्यूटेशनल निर्णय ले रहा है जो मनुष्यों को मारने या नुकसान पहुंचा सकता है। एआई पर नियंत्रण की कमी के बारे में स्पष्ट चिंताओं के अलावा, आपको यह भी चिंता है कि एआई के कार्यों के लिए हमारे पास एक कठिन समय हो सकता है। हमारे पास ऐसा कोई इंसान नहीं है जो हमारे स्पष्ट भड़काने वाला हो।

मुझे एहसास है कि कुछ लोग मानते हैं कि हमें एआई को उसके कार्यों के लिए सीधे और सीधे तौर पर जिम्मेदार ठहराना चाहिए, जैसे कि एआई ने भावना प्राप्त कर ली है या अन्यथा कानूनी व्यक्तित्व प्रदान किया गया है (एआई को कानूनी व्यक्तित्व प्राप्त करने पर बहस पर मेरा कवरेज देखें) यहाँ लिंक) यह अभी काम नहीं करेगा। हमें एआई को उन मनुष्यों तक पहुंचाना होगा जिन्होंने या तो इसे तैयार किया या जिसने इसे मैदान में उतारा। वे निस्संदेह कानूनी रूप से जिम्मेदारी से बचने की कोशिश करेंगे, यह तर्क देने की कोशिश करेंगे कि एआई उनकी कल्पना से आगे निकल गया है। यह एक बढ़ता हुआ विवाद है जिससे हमें निपटने की आवश्यकता है (इसमें शामिल विवादास्पद मुद्दों पर अंतर्दृष्टि के लिए मेरे एआई कानून लेखन देखें)।

जिनेवा में कुछ पारंपरिक हथियारों (सीसीडब्ल्यू) पर कन्वेंशन के माध्यम से संयुक्त राष्ट्र (यूएन) ने ऑनलाइन पोस्ट की गई आधिकारिक रिपोर्ट के अनुसार घातक स्वायत्त हथियारों पर ग्यारह गैर-बाध्यकारी मार्गदर्शक सिद्धांतों की स्थापना की है। , समेत:

(ए) अंतर्राष्ट्रीय मानवीय कानून सभी हथियार प्रणालियों पर पूरी तरह से लागू होता है, जिसमें घातक स्वायत्त हथियार प्रणालियों का संभावित विकास और उपयोग शामिल है;

(बी) हथियार प्रणालियों के उपयोग पर निर्णय के लिए मानवीय जिम्मेदारी बरकरार रखी जानी चाहिए क्योंकि जवाबदेही मशीनों को हस्तांतरित नहीं की जा सकती है। हथियार प्रणाली के संपूर्ण जीवन चक्र में इस पर विचार किया जाना चाहिए;

(सी) मानव-मशीन संपर्क, जो विभिन्न रूप ले सकता है और हथियार के जीवन चक्र के विभिन्न चरणों में कार्यान्वित किया जा सकता है, को यह सुनिश्चित करना चाहिए कि घातक स्वायत्त हथियार प्रणालियों के क्षेत्र में उभरती प्रौद्योगिकियों के आधार पर हथियार प्रणालियों का संभावित उपयोग हो। लागू अंतरराष्ट्रीय कानून का अनुपालन, विशेष रूप से आईएचएल में। मानव-मशीन संपर्क की गुणवत्ता और सीमा का निर्धारण करने में, परिचालन संदर्भ और समग्र रूप से हथियार प्रणाली की विशेषताओं और क्षमताओं सहित कई कारकों पर विचार किया जाना चाहिए;

(डी) सीसीडब्ल्यू के ढांचे में किसी भी उभरती हथियार प्रणाली के विकास, तैनाती और उपयोग के लिए जवाबदेही लागू अंतरराष्ट्रीय कानून के अनुसार सुनिश्चित की जानी चाहिए, जिसमें मानव कमांड और नियंत्रण की एक जिम्मेदार श्रृंखला के भीतर ऐसी प्रणालियों का संचालन शामिल है;

(ई) अंतरराष्ट्रीय कानून के तहत राज्यों के दायित्वों के अनुसार, किसी नए हथियार, साधन या युद्ध के तरीके के अध्ययन, विकास, अधिग्रहण या अपनाने में, यह निर्धारण किया जाना चाहिए कि क्या इसका उपयोग, कुछ या सभी परिस्थितियों में किया जाएगा। अंतरराष्ट्रीय कानून द्वारा निषिद्ध;

(एफ) घातक स्वायत्त हथियार प्रणालियों, भौतिक सुरक्षा, उचित गैर-भौतिक सुरक्षा उपायों (हैकिंग या डेटा स्पूफिंग के खिलाफ साइबर सुरक्षा सहित) के क्षेत्र में उभरती प्रौद्योगिकियों के आधार पर नई हथियार प्रणालियों का विकास या अधिग्रहण करते समय, आतंकवादी समूहों द्वारा अधिग्रहण का जोखिम और प्रसार के जोखिम पर विचार किया जाना चाहिए;

(जी) जोखिम मूल्यांकन और शमन उपाय किसी भी हथियार प्रणाली में उभरती प्रौद्योगिकियों के डिजाइन, विकास, परीक्षण और तैनाती चक्र का हिस्सा होना चाहिए;

(ज) आईएचएल और अन्य लागू अंतरराष्ट्रीय कानूनी दायित्वों के अनुपालन को बनाए रखने में घातक स्वायत्त हथियार प्रणालियों के क्षेत्र में उभरती प्रौद्योगिकियों के उपयोग पर विचार किया जाना चाहिए;

(i) संभावित नीतिगत उपायों को तैयार करने में, घातक स्वायत्त हथियार प्रणालियों के क्षेत्र में उभरती प्रौद्योगिकियों को मानवरूपी नहीं बनाया जाना चाहिए;

(जे) सीसीडब्ल्यू के संदर्भ में की गई चर्चाओं और किसी भी संभावित नीतिगत उपाय से बुद्धिमान स्वायत्त प्रौद्योगिकियों के शांतिपूर्ण उपयोग में प्रगति या पहुंच में बाधा नहीं आनी चाहिए;

(के) सीसीडब्ल्यू कन्वेंशन के उद्देश्यों और उद्देश्यों के संदर्भ में घातक स्वायत्त हथियार प्रणालियों के क्षेत्र में उभरती प्रौद्योगिकियों के मुद्दे से निपटने के लिए एक उपयुक्त ढांचा प्रदान करता है, जो सैन्य आवश्यकता और मानवीय विचारों के बीच संतुलन बनाना चाहता है।

ये और युद्ध के अन्य विभिन्न कानून और सशस्त्र संघर्ष के कानून, या IHL (अंतर्राष्ट्रीय मानवीय कानून) इस बात पर विचार करने के लिए एक महत्वपूर्ण और हमेशा आशाजनक मार्गदर्शक के रूप में काम करते हैं कि हम स्वायत्त प्रणालियों के आगमन के बारे में क्या करने की कोशिश कर सकते हैं, जो कि कीस्टोन द्वारा हथियारयुक्त हैं। डिजाइन या तथ्य के बाद के तरीकों से।

कुछ लोग कहते हैं कि हमें उन एआई स्वायत्त प्रणालियों पर पूरी तरह से प्रतिबंध लगा देना चाहिए जो हथियार बनाने योग्य हैं। यह सही है, दुनिया को अपना पैर नीचे रखना चाहिए और सख्ती से मांग करनी चाहिए कि एआई स्वायत्त प्रणालियों को कभी भी हथियार नहीं बनाया जाए। पूर्ण प्रतिबंध लगाया जाना है। कहानी का अंत। पूर्ण विराम, अवधि।

खैर, हम ईमानदारी से कामना कर सकते हैं कि घातक हथियारयुक्त स्वायत्त प्रणालियों पर प्रतिबंध सख्ती से और आज्ञाकारी रूप से मनाया जाएगा। समस्या यह है कि किसी भी ईमानदार प्रतिबंध के भीतर बहुत सारे विग्गल रूम धूर्तता से पाए जाने के लिए बाध्य हैं। जैसा कि वे कहते हैं, नियम तोड़े जाने के लिए होते हैं। आप शर्त लगा सकते हैं कि जहां चीजें ढीली-ढाली होती हैं, वहां रिफ्रैफ अंतराल को दूर कर देगा और नियमों के इर्द-गिर्द अपना रास्ता भटकाने की कोशिश करेगा।

यहां कुछ संभावित खामियां विचार योग्य हैं:

  • गैर-घातक का दावा. गैर-घातक स्वायत्त हथियार प्रणाली बनाएं (प्रतीत होता है ठीक है क्योंकि यह प्रतिबंध सीमा के बाहर है), जिसे आप तब घातक बनने में बदल सकते हैं (आप केवल अंतिम समय में प्रतिबंध से परे होंगे)।
  • केवल स्वायत्त व्यवस्था के दावे. घातक-केंद्रित स्वायत्त प्रणालियाँ न बनाकर प्रतिबंध को बरकरार रखें, इस बीच, रोजमर्रा की स्वायत्त प्रणालियों को तैयार करने में उतनी प्रगति करें जो (अभी तक) हथियारबंद नहीं हैं, लेकिन आप एक पैसे में उन्हें हथियारबंद बना सकते हैं।
  • एक के रूप में एकीकृत नहीं होने का दावा। शिल्प स्वायत्त प्रणालियाँ जो बिल्कुल भी हथियारबंद नहीं हैं, और जब समय आता है, तो गुल्लक का हथियारीकरण ऐसा है कि आप जोरदार तर्क देने का प्रयास कर सकते हैं कि वे दो अलग-अलग तत्व हैं और इसलिए यह तर्क देते हैं कि वे एक-एक के रूब्रिक के भीतर नहीं आते हैं। स्वायत्त हथियार प्रणाली या उसके चचेरे भाई।
  • दावा है कि यह स्वायत्त नहीं है। ऐसी शस्त्र प्रणाली बनाएं जो स्वायत्त क्षमता की न लगे। एआई-आधारित स्वायत्तता को छोड़ने के लिए इस गैर-स्वायत्त प्रणाली में जगह छोड़ दें। जब आवश्यक हो, स्वायत्तता में प्लग करें और आप रोल करने के लिए तैयार हैं (तब तक, ऐसा प्रतीत होता है कि आप प्रतिबंध का उल्लंघन नहीं कर रहे थे)।
  • अन्य

घातक स्वायत्त हथियार प्रणालियों पर पूर्ण रूप से प्रतिबंध लगाने की कोशिश में कई अन्य कठिनाइयां व्यक्त की गई हैं। मैं उनमें से कुछ और को कवर करूंगा।

कुछ पंडितों का तर्क है कि प्रतिबंध विशेष रूप से उपयोगी नहीं है और इसके बजाय नियामक प्रावधान होने चाहिए। विचार यह है कि इन उपकरणों की अनुमति दी जाएगी लेकिन सख्ती से निगरानी की जाएगी। लक्ष्यीकरण के वैध तरीकों, क्षमताओं के वैध प्रकार, वैध आनुपातिकता और इसी तरह की अन्य बातों के साथ-साथ वैध उपयोगों की एक सूची तैयार की गई है।

उनके विचार में, सीधे-सीधे प्रतिबंध रेत में अपना सिर डालने और यह दिखावा करने जैसा है कि कमरे में हाथी मौजूद नहीं है। हालाँकि इस विवाद से उन लोगों का खून खौलने लगता है जो इस तर्क का विरोध करते हैं कि प्रतिबंध लगाकर आप इस प्रकार की प्रणालियों को आगे बढ़ाने के प्रलोभन को नाटकीय रूप से कम करने में सक्षम हैं। निश्चित रूप से, कुछ लोग प्रतिबंध का दिखावा करेंगे, लेकिन कम से कम उम्मीद है कि अधिकांश ऐसा नहीं करेंगे। फिर आप अपना ध्यान दिखावटी करने वालों पर केंद्रित कर सकते हैं और हर किसी पर अपना ध्यान केंद्रित नहीं करना पड़ेगा।

ये बहसें गोल-गोल चलती रहती हैं.

एक और ध्यान देने योग्य चिंता यह है कि भले ही अच्छा प्रतिबंध का पालन करे, बुरा नहीं होगा। यह अच्छे को घटिया मुद्रा में रखता है। बुरे लोगों के पास इस प्रकार की हथियारयुक्त स्वायत्त प्रणालियाँ होंगी और अच्छा नहीं होगा। एक बार जब चीजें सामने आ जाती हैं कि बुरा उनके पास है, तो अच्छे को पकड़ने में बहुत देर हो जाएगी। संक्षेप में, आग से आग से लड़ने के लिए तैयारी करना ही एकमात्र अचरज भरा काम है।

क्लासिक निरोध विवाद भी है। यदि हथियारयुक्त स्वायत्त प्रणाली बनाने का अच्छा विकल्प है, तो इसका उपयोग बुरे को झगड़े में पड़ने से रोकने के लिए किया जा सकता है। या तो अच्छा बेहतर सशस्त्र होगा और इस तरह बुरे को दूर करेगा, या अच्छा तब तैयार होगा जब बुरा शायद यह खुलासा करेगा कि वे उन प्रणालियों को गुप्त रूप से तैयार कर रहे हैं।

इन काउंटरों का एक प्रतिकार यह है कि हथियारयुक्त स्वायत्त प्रणालियाँ बनाकर, आप हथियारों की होड़ लगा रहे हैं। दूसरा पक्ष भी वैसा ही पाने की कोशिश करेगा। भले ही वे तकनीकी रूप से ऐसे सिस्टम को नए सिरे से बनाने में असमर्थ हों, वे अब "अच्छे" सिस्टम की योजनाओं को चुराने में सक्षम होंगे, हाई-टेक हिम्मत को रिवर्स इंजीनियर करेंगे, या जो कुछ भी उन्हें आजमाया हुआ और सच्चा लगता है उसकी नकल करने में सक्षम होंगे। काम पूरा करने का तरीका.

आह, कुछ प्रत्युत्तर, यह सब आपसी समानता से संघर्षों में कमी ला सकता है। यदि पक्ष ए जानता है कि पक्ष बी के पास घातक स्वायत्त प्रणाली हथियार हैं, और पक्ष बी जानता है कि पक्ष ए के पास है, तो वे कसकर बैठ सकते हैं और मारपीट नहीं कर सकते। इसमें पारस्परिक रूप से सुनिश्चित विनाश (एमएडी) वाइब्स की विशिष्ट आभा है।

और इतने पर.

दूसरे पैराग्राफ को करीब से देख रहे हैं

हमने पहले ही यहां बहुत सारे आधार को कवर कर लिया है और केवल अब तक ओपन लेटर के पहले या शुरुआती पैराग्राफ पर विचार किया है (कुल चार पैराग्राफ हैं)।

दूसरे पैराग्राफ पर एक नज़र डालने का समय आ गया है, आप यहाँ जाएँ:

  • "नई क्षमताओं की पेशकश करने वाली किसी भी नई तकनीक के साथ, उन्नत मोबाइल रोबोटों का उद्भव दुरुपयोग की संभावना प्रदान करता है। अविश्वसनीय लोग उनका उपयोग नागरिक अधिकारों पर आक्रमण करने या दूसरों को धमकाने, नुकसान पहुंचाने या डराने के लिए कर सकते हैं। विशेष चिंता का एक क्षेत्र शस्त्रीकरण है। हमारा मानना ​​है कि दूर से या स्वायत्त रूप से संचालित, व्यापक रूप से जनता के लिए उपलब्ध, और लोगों के रहने और काम करने वाले पहले दुर्गम स्थानों पर नेविगेट करने में सक्षम रोबोट में हथियार जोड़ने से नुकसान और गंभीर नैतिक मुद्दों के नए जोखिम पैदा होते हैं। इन नव-सक्षम रोबोटों के हथियारबंद अनुप्रयोग प्रौद्योगिकी में जनता के विश्वास को भी नुकसान पहुंचाएंगे, जिससे समाज को होने वाले जबरदस्त लाभों को नुकसान होगा। इन कारणों से, हम अपने उन्नत-गतिशीलता सामान्य-उद्देश्य वाले रोबोटों के शस्त्रीकरण का समर्थन नहीं करते हैं। हममें से उन लोगों के लिए जिन्होंने अतीत में इस मुद्दे पर बात की है, और जो पहली बार शामिल हुए हैं, हम अब हाल के महीनों में बढ़ती सार्वजनिक चिंता के आलोक में नए सिरे से तात्कालिकता महसूस करते हैं, जो कि कम संख्या में ऐसे लोगों के कारण हुआ है जिन्होंने अपने अस्थायी प्रचार को स्पष्ट रूप से प्रचारित किया है। व्यावसायिक रूप से उपलब्ध रोबोटों को हथियार बनाने के प्रयास ”(ऑनलाइन पोस्ट के अनुसार)।

उस दूसरे पैराग्राफ को पढ़ने पर, मुझे आशा है कि आप देख सकते हैं कि एआई हथियारकरण पर मेरा पिछला भाषण कैसे सामने आता है।

आइए कुछ अतिरिक्त बिंदुओं की जांच करें।

एक विशेष शब्दार्थ पहलू के बारे में कुछ हद तक यह है कि कुछ लोगों द्वारा परेशान किया गया है कि कथा इस बात पर जोर देती है कि "अविश्वसनीय लोग" इन एआई रोबोटों का दुरुपयोग कर सकते हैं। हां, वास्तव में, यह बुरे लोग या कुकर्मी हो सकते हैं जो नृशंस कृत्यों को अंजाम देते हैं जो एआई रोबोटों का "दुरुपयोग" करेंगे।

साथ ही, जैसा कि इस चर्चा की शुरुआत में बताया गया है, हमें यह भी स्पष्ट करने की आवश्यकता है कि एआई स्वयं गड़बड़ा सकता है, संभवतः एम्बेडेड बग या त्रुटियों और ऐसी अन्य जटिलताओं के कारण। व्यक्त चिंता यह है कि केवल संभावनाओं पर जोर देना अविश्वसनीय लोग ऐसा लगता है कि यह अन्य प्रतिकूल संभावनाओं की अनदेखी करता है। हालांकि अधिकांश एआई कंपनियां और विक्रेता इसे स्वीकार करने से कतराते हैं, लेकिन एआई सिस्टम के मुद्दों की अधिकता है जो स्वायत्त प्रणालियों की सुरक्षा और विश्वसनीयता को कम कर सकते हैं। एआई सुरक्षा के मेरे कवरेज और कठोर और सिद्ध सुरक्षा उपायों की आवश्यकता के लिए, देखें यहाँ लिंक, उदाहरण के लिए।

ओपन लेटर की जांच करने वालों के बीच एक और उल्लेखनीय बात सामने आई है, जिसमें यह भी शामिल है कि एआई रोबोट से जुड़े सार्वजनिक विश्वास को कम किया जा सकता है।

एक ओर, यह एक वैध दावा है। अगर एआई रोबोट का इस्तेमाल बुरी बोली लगाने के लिए किया जाता है, तो आप शर्त लगा सकते हैं कि जनता काफी उत्साहित होगी। जब जनता उत्तेजित हो जाती है, तो आप शर्त लगा सकते हैं कि कानून निर्माता आगे बढ़ेंगे और ऐसे कानून बनाने की कोशिश करेंगे जो एआई रोबोट और एआई रोबोट निर्माताओं पर शिकंजा कसें। यह बदले में एआई रोबोटिक्स उद्योग को पंगु बना सकता है यदि कानून सभी को शामिल करते हैं और एआई रोबोटिक लाभों से जुड़े प्रयासों को बंद कर देते हैं। एक मायने में, बच्चे को नहाने के पानी के साथ बाहर फेंक दिया जा सकता है (एक पुरानी अभिव्यक्ति, शायद सेवानिवृत्त होने के योग्य)।

स्पष्ट प्रश्न यह भी उठाया गया है कि क्या एआई रोबोटों के लिए सार्वजनिक विश्वास में कमी को टालने के बारे में यह दावा कुछ हद तक स्वयं की सेवा करने वाला प्रमाण है या क्या यह हम सभी की भलाई के लिए है (क्या यह दोनों हो सकता है?)

आप तय करें।

अब हम खुले पत्र के विशेष रूप से भावपूर्ण भाग पर आते हैं:

  • "हम प्रतिज्ञा करते हैं कि हम अपने उन्नत-गतिशीलता सामान्य-उद्देश्य वाले रोबोट या हमारे द्वारा विकसित सॉफ़्टवेयर को हथियार नहीं बनाएंगे जो उन्नत रोबोटिक्स को सक्षम बनाता है और हम ऐसा करने के लिए दूसरों का समर्थन नहीं करेंगे। जब संभव हो, हम संभावित हथियारकरण से बचने के लिए अपने ग्राहकों के इच्छित अनुप्रयोगों की सावधानीपूर्वक समीक्षा करेंगे। हम उन तकनीकी विशेषताओं के विकास का पता लगाने का भी वचन देते हैं जो इन जोखिमों को कम या कम कर सकती हैं। स्पष्ट होने के लिए, हम मौजूदा तकनीकों के साथ समस्या नहीं उठा रहे हैं जो राष्ट्र और उनकी सरकारी एजेंसियां ​​​​खुद का बचाव करने और अपने कानूनों को बनाए रखने के लिए उपयोग करती हैं ”(ऑनलाइन पोस्ट के अनुसार)।

हम इसे अनपैक कर सकते हैं।

बैठ जाओ और उसी के अनुसार खुद को तैयार करो।

क्या आप कुछ उग्र ध्रुवीकरण के लिए तैयार हैं?

अनुकूल पक्ष पर, कुछ मुखर रूप से घोषणा कर रहे हैं कि ये एआई रोबोट निर्माता इस तरह की प्रतिज्ञा करेंगे। ऐसा लगता है कि ये रोबोट निर्माता अपने "उन्नत-गतिशीलता सामान्य-उद्देश्य" रोबोटों को हथियार नहीं बनाने के लिए शुक्रगुज़ार होंगे। इसके अलावा, खुला पत्र कहता है कि वे ऐसा करने वाले अन्य लोगों का समर्थन नहीं करेंगे।

आलोचकों को आश्चर्य होता है कि क्या कुछ चतुर शब्द-निर्माण चल रहा है।

उदाहरण के लिए, "उन्नत-गतिशीलता" कहाँ से शुरू और समाप्त होती है? यदि कोई रोबोट निर्माता तैयार कर रहा है a सरल-मोबिलिटी एआई रोबोट एक उन्नत के बजाय (जो कि तकनीकी शब्दजाल का एक अपरिभाषित टुकड़ा है), क्या इसे इस दायरे से बाहर रखा जाएगा कि क्या होगा नहीं हथियारबंद हो? इस प्रकार, जाहिरा तौर पर, सरल-गतिशीलता वाले एआई रोबोटों को हथियार बनाना ठीक है, जब तक कि वे तथाकथित नहीं हैं उन्नत.

वही सामान्य-उद्देश्य वाले रोबोटों के वाक्यांशों के लिए जाता है। यदि कोई AI रोबोट विशेष रूप से हथियार बनाने के लिए तैयार किया गया है और इसलिए ऐसा नहीं है तो हम कहेंगे a सामान्य उद्देश्य रोबोट, क्या यह दायरे से व्यवहार्य बहिष्करण बन जाता है?

हो सकता है कि आप इन झगड़ों से झुंझलाएं और जोर से तर्क दें कि यह सिर्फ एक खुला पत्र है न कि पचास पन्नों का कानूनी दस्तावेज जो हर नुक्कड़ और सारस को बयां करता है।

यह हमें कुछ लोगों द्वारा व्यक्त किए गए अधिक मैक्रो-स्तरीय योग्यता के लिए लाता है। संक्षेप में, "प्रतिज्ञा" क्या दर्शाता है?

कुछ पूछते हैं, गोमांस कहाँ है?

एक कंपनी जो इस तरह की प्रतिज्ञा करती है, वह खेल में किसी भी वास्तविक हिस्सेदारी के बिना ऐसा कर रही है। यदि इस प्रतिज्ञा के लिए साइन अप करने वाली किसी फर्म के शीर्ष अधिकारी प्रतिज्ञा का सम्मान नहीं करने का निर्णय लेते हैं, तो उस फर्म का क्या होगा? क्या अधिकारियों को सरसरी तौर पर डिब्बाबंद किया जाएगा? क्या कंपनी बंद हो जाएगी और प्रतिज्ञा का उल्लंघन करने के लिए माफी मांगेगी? और इसी तरह।

जहां तक ​​अनुमान लगाया जा सकता है, प्रतिज्ञा के किसी भी उल्लंघन के लिए कोई विशेष दंड या दंड नहीं है।

आप तर्क दे सकते हैं कि प्रतिष्ठा को नुकसान होने की संभावना है। एक गिरवी रखने वाली फर्म को बाजार में एक प्रतिज्ञा करने के लिए डिंग किया जा सकता है जिसे अब नहीं देखा गया है। बेशक, यह भी मानता है कि लोगों को याद होगा कि प्रतिज्ञा की गई थी। यह भी मानता है कि प्रतिज्ञा के उल्लंघन का किसी तरह पता लगाया जाएगा (यह स्पष्ट रूप से असंभव लगता है कि कोई फर्म ऐसा करने पर सभी को बताएगी)। प्रतिज्ञा उल्लंघनकर्ता को बाहर करना होगा और फिर भी एआई रोबोटिक्स निर्माताओं के बारे में खबरों की चल रही सुनामी में ऐसा मुद्दा केवल शोर बन सकता है।

एक और कोण पर विचार करें जो सामने आया है।

एक गिरवी रखने वाली फर्म को कोई बड़ी फर्म खरीद लेती है। बड़ी फर्म उन्नत-गतिशीलता सामान्य-उद्देश्य वाले रोबोटों को एआई हथियार वाले संस्करणों में बदलना शुरू कर देती है।

क्या यह प्रतिज्ञा का उल्लंघन है?

बड़ी फर्म जोर देकर कह सकती है कि यह उल्लंघन नहीं है क्योंकि उन्होंने (बड़ी फर्म ने) कभी प्रतिज्ञा नहीं की। इस बीच, सहज एआई रोबोट जिन्हें छोटी फर्म ने एक साथ रखा और तैयार किया है, ऐसा करने के इरादे से सबसे परोपकारी प्रतीत होता है, लगभग रातोंरात हथियार बनने में बदल जाते हैं।

प्रतिज्ञा को कमजोर करता है, हालांकि आप कह सकते हैं कि छोटी फर्म को यह नहीं पता था कि यह किसी दिन होगा। वे अपनी इच्छा में गंभीर थे। यह उनके नियंत्रण से बाहर था कि बड़ी खरीद करने वाली फर्म क्या करने का विकल्प चुनती है।

कुछ लोग यह भी पूछते हैं कि क्या इसमें कोई कानूनी दायित्व है।

एक गिरवी रखने वाली फर्म अब से कुछ महीने बाद फैसला करती है कि वह प्रतिज्ञा का सम्मान नहीं करने जा रही है। उनका हृदय परिवर्तन हुआ है। क्या फर्म पर अपने द्वारा की गई प्रतिज्ञा को त्यागने के लिए मुकदमा चलाया जा सकता है? कौन मुकदमा करेगा? मुकदमे का आधार क्या होगा? कई कानूनी मुद्दे सामने आते हैं। जैसा कि वे कहते हैं, आप किसी के बारे में बहुत अधिक मुकदमा कर सकते हैं, लेकिन क्या आप जीतेंगे यह पूरी तरह से अलग मामला है।

इसे दूसरे तरीके से सोचें। एक गिरवी रखने वाली फर्म को अपने उन्नत-गतिशीलता सामान्य-उद्देश्य वाले रोबोटों के एक पूरे समूह को एक बड़ी कंपनी को बेचने के लिए वास्तव में एक बड़ा सौदा करने का अवसर मिलता है जो रोबोट प्राप्त करने के लिए नाक के माध्यम से भुगतान करने को तैयार है। यह उन जीवन भर के अरबों डॉलर के खरीद सौदों में से एक है।

AI रोबोटिक्स कंपनी को क्या करना चाहिए?

यदि AI रोबोटिक्स गिरवी रखने वाली फर्म का सार्वजनिक रूप से कारोबार होता है, तो वे लगभग निश्चित रूप से बिक्री करने का लक्ष्य रखेंगे (यह एक निजी तौर पर आयोजित फर्म के बारे में भी कहा जा सकता है, हालांकि ऐसा नहीं है)। कल्पना कीजिए कि गिरवी रखने वाली फर्म चिंतित है कि खरीदार रोबोट को हथियार बनाने की कोशिश कर सकता है, हालांकि मान लीजिए कि मेज पर ऐसी कोई चर्चा नहीं है। यह अफवाह है कि खरीदार ऐसा कर सकता है।

तदनुसार, गिरवी रखने वाली फर्म अपने लाइसेंस में डालती है कि रोबोटों को हथियार नहीं बनाया जाना चाहिए। खरीदार इस भाषा पर अड़ जाता है और खरीदारी से दूर हो जाता है।

गिरवी रखने वाली एआई रोबोटिक्स फर्म ने कितना लाभ कमाया?

क्या कोई ऐसा बिंदु है जिस पर हाथ में लाभ लाइसेंसिंग प्रतिबंध आवश्यकता को शामिल करने से अधिक है (या, शायद कानूनी रूप से विग्गल रूम की अनुमति देने के लिए प्रतिबंध को शब्दों में बदलना और अभी भी सौदा करना है)? मुझे लगता है कि आप इसमें शामिल विवाद को देख सकते हैं। ऐसे कई परिदृश्यों को आसानी से स्वीकार कर लिया जाता है। सवाल यह है कि क्या इस प्रतिज्ञा के दांत निकलने वाले हैं। यदि हां, तो किस प्रकार के दांत?

संक्षेप में, जैसा कि इस चर्चा की शुरुआत में उल्लेख किया गया है, कुछ इस बात से उत्साहित हैं कि इस प्रकार की प्रतिज्ञा की जा रही है, जबकि अन्य इस बात पर विचार कर रहे हैं कि प्रतिज्ञा में पानी होगा या नहीं।

हम आगे बढ़ते हैं।

एक प्रतिज्ञा प्राप्त करना

ओपन लेटर का चौथा और अंतिम पैराग्राफ यह कहता है:

  • "हम समझते हैं कि इन जोखिमों को पूरी तरह से संबोधित करने के लिए केवल हमारी प्रतिबद्धता पर्याप्त नहीं है, और इसलिए हम नीति निर्माताओं से इन रोबोटों के सुरक्षित उपयोग को बढ़ावा देने और उनके दुरुपयोग को रोकने के लिए हमारे साथ काम करने का आह्वान करते हैं। हम रोबोटिक्स समुदाय के प्रत्येक संगठन, डेवलपर, शोधकर्ता और उपयोगकर्ता से भी आह्वान करते हैं कि वे ऐसे रोबोटों को हथियार बनाने, अधिकृत करने, समर्थन करने या सक्षम बनाने के लिए समान प्रतिज्ञा न करें। हम आश्वस्त हैं कि इन प्रौद्योगिकियों के मानवता के लिए लाभ दुरुपयोग के जोखिम से काफी अधिक हैं, और हम एक उज्ज्वल भविष्य के बारे में उत्साहित हैं जिसमें मानव और रोबोट दुनिया की कुछ चुनौतियों से निपटने के लिए कंधे से कंधा मिलाकर काम करते हैं ”(ऑनलाइन पोस्ट के अनुसार)।

ओपन लेटर के इस आखिरी हिस्से में कई अतिरिक्त तत्व हैं जिन्होंने गुस्सा बढ़ाया है।

नीति निर्माताओं को बुलाना अच्छी तरह से सलाह दी जा सकती है या गलत सलाह दी जा सकती है, कुछ लोग कहते हैं। आपको ऐसे नीति निर्माता मिल सकते हैं जो इन मामलों में पारंगत नहीं हैं, जो तब क्लासिक रश-टू-निर्णय और शिल्प कानूनों और विनियमों को करते हैं जो एआई रोबोट पर प्रगति की शुरुआत करते हैं। पहले किए गए बिंदु के अनुसार, शायद एआई रोबोटिक प्रगति पर जो नवाचार आगे बढ़ रहा है, वह बाधित हो जाएगा या उस पर रोक लगा दी जाएगी।

बेहतर होगा कि सुनिश्चित करें कि आप जानते हैं कि आप क्या मांग रहे हैं, आलोचकों का कहना है।

बेशक, प्रतिवाद यह है कि कथा स्पष्ट रूप से बताती है कि नीति निर्माताओं को एआई रोबोटिक्स फर्मों के साथ काम करना चाहिए ताकि यह पता लगाया जा सके कि इस तरह के कानून और विनियमों को समझदारी से कैसे बनाया जाए। प्रतिवाद का प्रतिवाद यह है कि नीति निर्माताओं को एआई रोबोटिक्स निर्माताओं को निहारने के रूप में देखा जा सकता है यदि वे अपनी सनक को पूरा करते हैं। प्रतिवाद का प्रतिवाद यह है कि यह स्वाभाविक रूप से उन लोगों के साथ काम करने की आवश्यकता है जो प्रौद्योगिकी के बारे में जानते हैं, अन्यथा परिणाम संभावित रूप से एक किलो होने वाला है। आदि।

शायद झुंझलाहट के आधार पर, कुछ लोगों को उस रेखा पर नाराज़गी हुई है जो सभी को समान प्रतिज्ञा करने का आह्वान करती है जैसे कि नहीं संलग्न उन्नत-गतिशीलता सामान्य-उद्देश्य वाले रोबोटों के लिए हथियार। कीवर्ड वहाँ शब्द है संलग्न. अगर कोई एआई रोबोट बना रहा है जो हथियारों को शामिल करता है या मूल रूप से एम्बेड करता है, तो ऐसा लगता है कि संलग्न कुछ। आप इसे अभी देख सकते हैं, कोई जोर से तर्क दे रहा है कि हथियार संलग्न नहीं है, यह पूरी तरह से एआई रोबोट का हिस्सा और पार्सल है। इसे खत्म करो, वे कहते हैं, हम उस प्रतिज्ञा के दायरे में नहीं हैं, और वे अन्यथा भी कह सकते थे कि वे थे।

यह प्रतिज्ञा की चिपचिपाहट की कमी के बारे में एक और शिकायत लाता है।

क्या कोई फर्म या कोई भी व्यक्ति जो इस प्रतिज्ञा को करने का विकल्प चुनता है, किसी भी समय खुद को गिरवी नहीं घोषित कर सकता है कि वे ऐसा करना चाहते हैं और किसी भी कारण से वे ऐसा करना चाहते हैं?

जाहिर तौर पर।

प्रतिज्ञा करने और वे किस कर्षण को ग्रहण करते हैं, इस बारे में बहुत कुछ है।

निष्कर्ष

ओह, आप कह सकते हैं, ये कंपनियां जो सही काम करने की कोशिश कर रही हैं, सही काम करने की कोशिश करने के लिए ड्रम हो रही हैं।

हमारी दुनिया में क्या आया है?

जो कोई भी इस तरह की प्रतिज्ञा करता है उसे संदेह का लाभ दिया जाना चाहिए, आप जोश से बनाए रख सकते हैं। वे साहसिक और महत्वपूर्ण योगदान देने के लिए सार्वजनिक क्षेत्र में कदम रख रहे हैं। अगर हम ऐसा करने के लिए उन्हें बदनाम करना शुरू कर दें, तो यह निश्चित रूप से मामले को और खराब कर देगा। ऐसी प्रतिज्ञा कोई नहीं करना चाहेगा। फर्म और अन्य लोग कोशिश भी नहीं करेंगे। वे छिप जाएंगे और समाज को इस बारे में आगाह नहीं करेंगे कि उन प्यारे नाचने वाले रोबोटों को खतरनाक तरीके से क्या बनाया जा सकता है।

संशयवादी यह घोषणा करते हैं कि समाज को बुद्धिमान बनाने का तरीका अन्य कार्यों को शामिल करता है, जैसे कि नाचते हुए एआई रोबोटों को प्रदर्शित करने के काल्पनिक कार्य को छोड़ना। या कम से कम इसे और अधिक संतुलित कार्य करें। उदाहरण के लिए, केवल प्यारे पालतू-वफादार कुत्तों की नकल करने के बजाय, यह वर्णन करें कि कैसे नाचने वाले रोबोट जंगली खुले क्रोधित भेड़ियों के समान हो सकते हैं जो मनुष्यों को झिझक के साथ टुकड़ों में फाड़ सकते हैं।

उन पर प्रतिज्ञाओं से अधिक ध्यान दिया जाएगा, वे विनती करते हैं।

प्रतिज्ञा निस्संदेह काफी पहेली हो सकती है।

जैसा कि महात्मा गांधी ने वाक्पटुता से कहा था: "प्रतिज्ञा कितनी भी स्पष्ट क्यों न हो, लोग अपने स्वयं के उद्देश्य के अनुरूप पाठ को घुमाएंगे और घुमाएंगे।"

शायद यहाँ एक उत्थान नोट पर समाप्त करने के लिए, थॉमस जेफरसन ने प्रतिज्ञाओं के बारे में यह कहा: "हम पारस्परिक रूप से एक दूसरे के लिए हमारे जीवन, हमारे भाग्य और हमारे पवित्र सम्मान की प्रतिज्ञा करते हैं।"

जब एआई रोबोट की बात आती है, उनकी स्वायत्तता, उनके हथियारकरण और इसी तरह, हम सभी अंततः इसमें एक साथ होने जा रहे हैं। हमारी आपसी प्रतिज्ञा कम से कम यह होनी चाहिए कि हम इन मामलों को सबसे आगे रखेंगे, हम इन प्रगति से निपटने के तरीके खोजने का प्रयास करेंगे, और किसी तरह अपने सम्मान, अपनी किस्मत और अपने जीवन को सुरक्षित करने के लिए अपना रास्ता खोजेंगे।

क्या हम इसकी प्रतिज्ञा कर सकते हैं?

मुझे ऐसी ही उम्मीद है।

स्रोत: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- रोबोट-निर्माता-कह रहे हैं-वे-करेंगे-बचाएंगे-एआई-हथियारीकरण/