एआई नैतिकता गलत तरीके से काम कर रहे एआई के लिए जवाबदेही सुनिश्चित करने के लिए कानूनी रूप से अनिवार्य प्रायश्चित निधि के गुणों पर विचार कर रही है

किस पर दोष लगाएँ?

यह एक सीधा सवाल लग सकता है, हालांकि बेसबॉल टीम के बारे में एबॉट और कॉस्टेलो की प्रसिद्ध जोड़ी द्वारा प्रसिद्ध कॉमेडी बिट के मामले में, "कौन" भ्रमित हो सकता है। आप अस्पष्ट रूप से परिचित हो सकते हैं सबसे पहले कौन है कॉमेडिक रूटीन जिसे उन्होंने अब तक के सबसे स्थायी स्किट में से एक बना दिया है (आप में से उन लोगों के लिए स्पॉइलर अलर्ट जिन्होंने इसे नहीं सुना है)।

एबॉट कॉस्टेलो को बताता है कि पहले कौन है, दूसरे पर क्या है, और मुझे नहीं पता तीसरे पर है। चतुर चालबाजी यह है कि पहले बेसमैन का नाम हू, दूसरे बेसमैन का नाम व्हाट और तीसरे बेसमैन का नाम आई डोंट नो है। बेशक, उन वाक्यांशों का भी अपना पारंपरिक अर्थ होता है और इस प्रकार एबट जो कह रहा है उसकी व्याख्या करने की कोशिश पूरी तरह से भ्रामक हो सकती है। वास्तव में, कॉस्टेलो प्रतीत होता है कि सहज प्रश्न पूछता है कि पहले कौन है, जिसके लिए उत्तर दृढ़ता से हां में कहा गया है। लेकिन कॉस्टेलो को इसका कोई मतलब नहीं था क्योंकि वह एक नाम की उम्मीद कर रहा था और इसके बजाय एक जवाब के रूप में एक हैरान करने वाला हां मिला।

जब आर्टिफिशियल इंटेलिजेंस (एआई) के आगमन की बात आती है, तो गियर बदलना, सबसे अधिक परेशान करने वाले प्रश्नों में से एक है जो पूछे जाने वाले प्रश्नों में से एक है कि एआई के भटक जाने पर किसे या शायद क्या जवाबदेह ठहराया जाएगा।

मैंने पहले आपराधिक जवाबदेही पर चर्चा की है जब एआई आपराधिक कार्रवाई करता है या करता है, तो मेरा कवरेज देखें यहाँ लिंक. नागरिक जवाबदेही का मामला भी है जैसे कि एआई ने आपके साथ गलत किया है, तो आप किस पर या क्या मुकदमा कर सकते हैं, जिस विषय पर मैं यहां चर्चा करूंगा। इन सभी में महत्वपूर्ण एआई नैतिकता विचार हैं। एआई एथिक्स और एथिकल एआई के मेरे चल रहे और व्यापक कवरेज के लिए, देखें यहाँ लिंक और यहाँ लिंक, कुछ लोगों का नाम बताने के लिए।

एआई नैतिकता के नियम हमें सतर्क रहने के लिए प्रेरित करते हैं। एआई प्रौद्योगिकीविद कभी-कभी प्रौद्योगिकी, विशेष रूप से उच्च तकनीक के अनुकूलन में व्यस्त हो सकते हैं। वे जरूरी नहीं कि बड़े सामाजिक प्रभावों पर विचार कर रहे हों। एआई एथिक्स मानसिकता रखने और एआई विकास और क्षेत्ररक्षण के लिए एकीकृत रूप से ऐसा करना उचित एआई के उत्पादन के लिए महत्वपूर्ण है, जिसमें (शायद आश्चर्यजनक रूप से या विडंबना यह है) कि एआई एथिक्स को फर्मों द्वारा कैसे अपनाया जाता है, इसका आकलन शामिल है।

सामान्य रूप से एआई नैतिकता के नियमों को लागू करने के अलावा, एक समान प्रश्न है कि क्या हमारे पास एआई के विभिन्न उपयोगों को नियंत्रित करने के लिए कानून होना चाहिए। नए कानूनों को संघीय, राज्य और स्थानीय स्तरों पर बांधा जा रहा है जो इस बात से संबंधित हैं कि एआई को कैसे तैयार किया जाना चाहिए। ऐसे कानूनों का मसौदा तैयार करने और उन्हें अधिनियमित करने का प्रयास धीरे-धीरे किया जाता है। एआई एथिक्स बहुत कम से कम एक सुविचारित स्टॉपगैप के रूप में कार्य करता है, और लगभग निश्चित रूप से कुछ हद तक सीधे उन नए कानूनों में शामिल किया जाएगा।

ध्यान रखें कि कुछ लोग दृढ़ता से तर्क देते हैं कि हमें एआई को कवर करने वाले नए कानूनों की आवश्यकता नहीं है और हमारे मौजूदा कानून पर्याप्त हैं। वास्तव में, उन्होंने चेतावनी दी है कि यदि हम इनमें से कुछ एआई कानूनों को लागू करते हैं, तो हम एआई में प्रगति पर रोक लगाकर सोने के हंस को मार देंगे जो कि अत्यधिक सामाजिक लाभ प्रदान करते हैं।

एक गरमागरम बहस हो रही है कि क्या मौजूदा कानून पूरे समाज में एआई सिस्टम के उद्भव को पर्याप्त रूप से संबोधित करने में सक्षम हैं। कानूनी दायित्व के लिए आमतौर पर यह आवश्यक है कि आप गधे पर पूंछ लगा सकते हैं कि हानिकारक आचरण के लिए कौन जिम्मेदार है। एआई के मामले में, एक अस्पष्ट रास्ता हो सकता है जो किसी विशेष व्यक्ति या व्यक्तियों को एआई से जोड़ता है जिसने कुछ हानिकारक कार्रवाई की है। एआई की रचना करने वाले स्रोत या आविष्कारक के लिए एआई काफी हद तक अप्राप्य हो सकता है।

एक और विचार यह है कि भले ही एआई की जड़ों का पता किसी से लगाया जा सकता है, सवाल यह है कि क्या वह व्यक्ति या व्यक्ति एआई के अंततः उत्पन्न होने वाले प्रतिकूल परिणाम का उचित रूप से अनुमान लगाने में सक्षम नहीं हो सकता है। कानूनी दायित्व का आकलन करने में दूरदर्शिता की जड़ एक प्रथागत रूप से उल्लेखनीय कारक है।

आपको यह सोचने के लिए लुभाया जा सकता है कि आप केवल एआई के बाद ही जा सकते हैं और एआई को कानूनी पार्टी के रूप में नामित कर सकते हैं या जो भी नुकसान कथित रूप से हुआ है, उसके लिए जिम्मेदार है। कुल मिलाकर, प्रचलित कानूनी दृष्टिकोण यह है कि एआई अभी तक कानूनी व्यक्तित्व के स्तर तक नहीं पहुंचा है। इस प्रकार, आप एआई को भुगतान करने के लिए सख्ती से बोलने में सक्षम नहीं होंगे और ऐसे मनुष्यों को खोजने की आवश्यकता होगी जो पर्दे के पीछे लीवर काम कर रहे थे, जैसा कि (एआई के लिए कानूनी व्यक्तित्व के मेरे विश्लेषण के लिए, देखें यहाँ लिंक).

इस सभी संभावित कानूनी दलदल में एक विचार आता है जिसे एक संभावित उपाय के रूप में पेश किया जा रहा है, या तो अल्पकालिक आधार पर या संभवतः लंबी अवधि के लिए। विचार यह है कि एआई द्वारा नुकसान पहुंचाने वालों के लिए वित्तीय राहत प्रदान करने के लिए शायद एक विशेष प्रतिपूरक कोष की स्थापना की जानी चाहिए। यदि आप अन्यथा आपको क्षतिपूर्ति करने के लिए एआई प्राप्त करने में असमर्थ हैं, और आप उन व्यक्तियों को नकार नहीं सकते हैं जिन्हें संभावित रूप से जवाबदेह ठहराया जाना चाहिए, तो अगला सबसे अच्छा विकल्प एक प्रतिपूरक निधि में टैप करना हो सकता है जिसका उद्देश्य एआई द्वारा नुकसान पहुंचाने वालों की सहायता करना है।

इस तरह का एक फंड एक तरह के बीमा के समान होगा, जैसा कि एक विचारोत्तेजक शोध पत्र में कहा गया है: "यह अनिवार्य रूप से अनिश्चितता के खिलाफ एक बीमा तंत्र होगा: उन मामलों में त्वरित मुआवजे के लिए एक स्पष्ट और पारदर्शी ढांचा जहां एक देयता सूट है हानिकारक आचरण की अप्रत्याशित प्रकृति के कारण अनिश्चित या सफलता की कोई संभावना नहीं है, (प्रकार का) खुद को नुकसान पहुंचाता है, या अत्यधिक लागत और / या प्रक्रिया की जटिलता "(ओलिविया एर्डेली और गैबर एर्डेली द्वारा लेख, "एआई देयता पहेली" और एक फंड-आधारित कार्य-आसपास", आर्टिफिशियल इंटेलिजेंस रिसर्च जर्नल, 2021).

प्रतिपूरक निधि एक व्यापक एआई गारंटी योजना (एआईजीएस) का हिस्सा होगी और कानूनी दायित्व के बारे में मौजूदा कानूनों में कुछ हल्के स्पर्श परिवर्तनों के साथ होगी। हल्का स्पर्श संभवतः अधिनियमित करना आसान होगा और कठिन प्रकार के कानूनी और सामाजिक गुस्से की आवश्यकता नहीं होगी यदि मौजूदा कानूनी व्यवस्थाओं में प्रदर्शनकारी परिवर्तनों की एक और अधिक भयावह श्रृंखला बनाई गई थी। शोधकर्ताओं के अनुसार: "यह हमारे विश्वास को दर्शाता है कि - इस तरह के एक त्वरित समाधान की अपील के बावजूद - स्थिर एआई या ए के लिए मौजूदा देयता नियमों का आवेदन संरक्षणवादी रूप से प्रेरित किसी भी कीमत पर जिम्मेदारी स्थापित करने की दृष्टि से सख्त दायित्व का सहारा लेना तीन कारणों से सही उत्तर नहीं है: पहला, यह अनदेखा करना कि उन नियमों को विभिन्न परिस्थितियों के अनुरूप बनाया गया है और इसलिए एआई के लिए अनुपयुक्त हो सकते हैं, वे नाजुक संतुलित उद्देश्यों का उल्लंघन करते हैं कानूनी दायित्व प्रणाली। दूसरा, वे अनुचित दंडात्मक दृष्टिकोण अपनाकर एआई नवाचार को रोकते हैं। तीसरा, सख्त दायित्व का अनुचित सहारा केवल दूरदर्शिता और गलती की समस्याओं को दूर करने के बजाय एक हठधर्मी रूप से असंगत तरीके से रोकता है ”(ऊपर उद्धृत पेपर के अनुसार)।

ऐसे एआई प्रतिपूरक निधि के पक्ष में तर्कों में शामिल हैं:

  • एआई से होने वाले नुकसान से निपटने के लिए लंबे और महंगे कानूनी परीक्षणों की आवश्यकता को कम करता है
  • मनुष्यों को आश्वस्त करता है कि वे एआई का उपयोग कर सकते हैं और नुकसान होने पर उन्हें मुआवजा दिया जा सकता है
  • एआई इनोवेटर्स के सामने कानूनी अनिश्चितता को कम करके एआई इनोवेशन को बढ़ावा देता है
  • मौजूदा कानूनों में बड़े पैमाने पर बदलाव करने की तुलना में कहीं अधिक तेजी से उपयोग में लाया जा सकता है
  • एक अपेक्षाकृत स्पष्ट उपाय प्रदान करता है जो विश्वसनीय और आसानी से उपलब्ध है
  • अन्य

इस बीच, जो लोग एआई प्रतिपूरक निधि दृष्टिकोण का विरोध करते हैं, वे यह कहते हैं:

  • आइए AI निर्माताओं को अत्यधिक ऑफ-द-हुक दें और उन्हें जवाबदेही से बचने की अनुमति दें
  • एआई निर्माताओं को एआई को तैयार करने के लिए प्रोत्साहित करेगा जिसमें कर्तव्यपरायण सुरक्षा और उचित नियंत्रण का अभाव है
  • लोगों को एआई के नुकसान का झूठा दावा करने के लिए प्रेरित कर सकता है ताकि वे धन का दोहन कर सकें
  • एआई को पर्याप्त रूप से नियंत्रित करने के लिए हमारे कानूनों में बदलाव करने की वास्तविक आवश्यकता को दरकिनार और कमजोर करता है
  • एक नौकरशाही दुःस्वप्न बन सकता है जो धन का दुरुपयोग और दुरुपयोग करता है
  • अन्य

जैसा कि स्पष्ट हो सकता है, इस पूरी तरह से विवादास्पद धारणा के समर्थक और विरोधी दोनों हैं।

एआई के बारे में बढ़ती चिंताओं के संभावित दृष्टिकोण के रूप में एआई प्रतिपूरक निधि को संक्षेप में खारिज करने के लिए आपको कड़ी मेहनत की जाएगी जो नुकसान पहुंचाती है। न ही प्रस्तावित समाधान एक स्लैम डंक है।

एक दृष्टिकोण यह है कि एआई को तैयार और प्रचारित करते समय एआई निर्माताओं को अपने प्रयासों के हिस्से के रूप में धन में पैसा लगाने की आवश्यकता होगी। इसे एक प्रकार के शुल्क या कर के रूप में माना जा सकता है जिसे दुनिया के लिए अपने एआई को जारी करने में सक्षम होने के हिस्से के रूप में वहन करना आवश्यक है। लेकिन क्या यह अतिरिक्त लागत उन स्टार्टअप्स के प्रयासों को संभावित रूप से दबा देती है जो आज के एआई की सीमाओं को आगे बढ़ाने की कोशिश कर रहे हैं? और यह सुनिश्चित करने का प्रवर्तन कैसे होगा कि एआई निर्माताओं ने अपने शुल्क या कर का भुगतान किया है?

कई प्रश्न उठते हैं और उन्हें हल करने की आवश्यकता होगी:

  • AI प्रतिपूरक कोष किन देशों में सबसे अच्छा संभव होगा?
  • क्या इंटरकनेक्टेड एआई प्रतिपूरक निधियों का वैश्विक स्वरूप स्थापित किया जा सकता है?
  • इस तरह के फंड से जुड़े विस्तृत और व्यावहारिक तंत्र क्या होंगे?
  • एआई प्रतिपूरक निधि को कैसे वित्त पोषित किया जाना है (सार्वजनिक, निजी, धर्मार्थ)?
  • क्या यह नो-फॉल्ट बीमा आधार होगा या कोई अन्य तरीका अपनाया जाएगा?
  • आदि

एक ऐसा क्षेत्र जिसके पास पहले से ही एआई प्रतिपूरक निधि का विचार है, जिसमें स्वायत्त वाहन और सेल्फ-ड्राइविंग कारों जैसी स्वायत्त प्रणालियाँ शामिल हैं। स्व-ड्राइविंग कारों और एआई स्वायत्त प्रणालियों के मेरे कवरेज के लिए, देखें यहाँ लिंक.

एआई-आधारित सेल्फ-ड्राइविंग कारों के लिए यह कैसे काम कर सकता है, इसका एक स्केच यहां दिया गया है।

मान लीजिए कि एक सेल्फ-ड्राइविंग कार बाइक सवार से टकराती है। बाइक सवार को नुकसान हुआ है। बाइक सवार स्वायत्त वाहन के ऑटोमेकर का पीछा करके कानूनी निवारण की मांग कर सकता है। या वे एआई ड्राइविंग सिस्टम बनाने वाली सेल्फ-ड्राइविंग टेक फर्म को निशाना बना सकते हैं। यदि स्व-ड्राइविंग कार को बेड़े के रूप में संचालित किया जा रहा है, तो बेड़े संचालक का पीछा करने के लिए एक और कानूनी तरीका होगा। एआई पर मुकदमा चलाने की कोशिश करना इस समय एक विकल्प नहीं है क्योंकि एआई का कानूनी व्यक्तित्व अभी तक स्थापित नहीं हुआ है।

उन पार्टियों में से किसी के खिलाफ कानूनी कार्रवाई करने के बजाय, एक अन्य सहारा एक उपयुक्त एआई प्रतिपूरक निधि के लिए एक आवेदन या दावा दायर करना होगा। फंड में औपचारिक प्रक्रियाएं होंगी जिनमें दावे की समीक्षा शामिल है, और फिर यह निर्धारित करें कि क्या दावेदार को कोई प्रतिपूरक भुगतान प्रदान किया जा सकता है। एक अपील प्रक्रिया हो सकती है जो दावेदारों में सहायता करती है जो मानते हैं कि उन्हें या तो फंड द्वारा गलत तरीके से अस्वीकार कर दिया गया था या फंड द्वारा अपर्याप्त मुआवजा दिया गया था।

सिद्धांत रूप में, एआई प्रतिपूरक कोष नुकसान की भरपाई की दिशा में एक बहुत तेज़ रास्ता होगा। आप अंदाजा लगा सकते हैं कि मुकदमा कितना श्रमसाध्य हो सकता है, जिससे मुकदमा चलाने वाली कंपनियां मामले को खींचने की कोशिश कर सकती हैं।

हालांकि अटॉर्नी इस बात पर जोर दे सकते हैं कि एआई प्रतिपूरक निधि उन अन्य पार्टियों को दे सकती है जैसे एआई निर्माता सार्वजनिक रोडवेज पर अपनी सेल्फ-ड्राइविंग कार को ढीला करने के लिए किसी भी स्पष्ट दंड से बचते हैं, जो एक बाइक सवार को समाप्त कर देता है। वे फर्में "लापरवाही से" करने का विकल्प और क्या कर सकती हैं? उनके सिर पर लटकी कानूनी तलवार के खतरे के बिना, हम खुद को दैनिक एआई का सामना करते हुए पा सकते हैं जो खतरनाक क्षमताओं से भरा है।

गोल-गोल तर्क चलते हैं।

निष्कर्ष

एआई एथिक्स हमें याद दिलाता है कि हमें हमेशा एआई के नैतिक और कानूनी प्रभावों पर विचार करना चाहिए। एआई प्रतिपूरक निधियों के इस मामले में, एआई द्वारा नुकसान पहुँचाए गए लोगों की क्षतिपूर्ति के लिए बीमा-सदृश निधियों के पूल की प्रस्तावित धारणा आकर्षक लगती है। ऐसा प्रतीत होता है कि धन वहां इंतजार कर रहा होगा, जिसका दोहन करने के लिए तैयार होगा, और जल्द से जल्द मुआवजा प्रदान करेगा।

क्या यह एआई बनाने की दिशा में बाढ़ के द्वार खोल सकता है, जिसमें कम और कम सुरक्षा नियंत्रण हैं, यह एक कठिन और सभी वास्तविक चिंता का विषय है। हमें शायद उस आग में ईंधन डालने की ज़रूरत नहीं है जो शायद पहले से ही चल रही है।

क्या हम किसी भी तरह एआई निर्माताओं को उचित नैतिक एआई तैयार करने के लिए पकड़ सकते हैं और साथ ही इन एआई प्रतिपूरक निधियों को स्थापित कर सकते हैं?

कुछ कहेंगे कि हाँ, हम कर सकते हैं। एआई प्रतिपूरक निधियों के साथ संरेखित करने के लिए मौजूदा कानूनों में फेरबदल करके, जिन्हें एआई द्वारा नुकसान पहुंचाया गया है, उनके पास अपने उचित मुआवजे की तलाश करने के लिए संभावित रूप से एक दोहरा रास्ता होगा।

पहले कौन है?

हां, यह वही है (जैसा कि हम सभी में) पहले नोटिस पर है कि हमें एआई प्रतिपूरक निधियों के संभावित उपयोग पर विचार करना चाहिए और मौजूदा कानूनों को संशोधित करना चाहिए, भले ही केवल हल्के से ही, अच्छे एआई और दोनों के हमले से निपटने के लिए एक साधन प्रदान करना चाहिए। खराब एआई।

उस महत्वपूर्ण विचार के बारे में कोई भ्रम नहीं है।

स्रोत: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- जवाबदेही/