एआई नैतिकता और स्वायत्त प्रणाली के सबक उस हालिया अलास्का एयरलाइंस की उड़ान से प्राप्त हुए जहां पायलट और सह-पायलट उड़ान भरने से पहले असहमत थे और अचानक टर्मिनल पर वापस टैक्सी का विकल्प चुना और अपने अलग रास्ते पर चले गए

एयरलाइंस हाल ही में काफी चर्चा में रही है।

हम गर्मियों में उड़ानों की तंगी में हैं। थके हुए और निराश यात्री खुद को हर तरह की उड़ान में व्यवधान और एयरलाइन शेड्यूलिंग अंतर्विरोधों का सामना करते हुए पाते हैं। उड़ानें अप्रत्याशित रूप से रद्द हो जाती हैं। उड़ानें देरी से चल रही हैं। यात्रियों का धुंआ। दुर्भाग्य से यात्रियों के ऐसे कई उदाहरण हैं जो इन आक्रोशों को भड़काने की अनुमति देते हैं, और हमने आमने-सामने टकराव और कभी-कभी मुक्का मारने के बहुत सारे वायरल वीडियो देखे हैं।

विरले ही हम किसी पायलट और सह-पायलट के बीच विवादों के बारे में सीखते हैं जो कॉकपिट में रहते हुए हो सकते हैं।

यह काफी आश्चर्य की बात है।

वास्तव में, हम स्वाभाविक रूप से यह सोचकर चकित रह जाते हैं कि उड़ान के किसी भी चरण के दौरान एक पायलट और सह-पायलट के बीच गंभीर असहमति का कोई सादृश्य होगा। यदि असहमति इस बात से संबंधित है कि कॉफी का कौन सा ब्रांड सबसे अच्छा है, तो हमारी धारणा यह है कि यह विमान को उड़ाने के काम के प्रयास में हस्तक्षेप नहीं करेगा। प्रतीत होता है कि उड़ान-अप्रासंगिक विषय पर दोनों ने अपनी आंखों की कमी को दूर कर दिया। उनका पेशेवर व्यवहार और लंबे समय तक चलने वाला पायलट प्रशिक्षण शुरू हो जाएगा और वे अपना ध्यान वापस उड़ान विवरण पर केंद्रित करेंगे।

हालांकि विचार करें जब a पेशेवर असहमति हस्तक्षेप करता है।

मैं संक्षेप में आपके साथ एक समाचार साझा करने जा रहा हूं, जो हाल ही में अमेरिका में एक उड़ान के दौरान हुई घटना के बारे में व्यापक रूप से प्रकाशित हुआ है, जो कॉकपिट में दावा किए गए पेशेवर असहमति से संबंधित है।

यह मुख्य रूप से यहां उद्धृत किया जा रहा है ताकि हम एक संबंधित विषय का पता लगा सकें जो आर्टिफिशियल इंटेलिजेंस (एआई) के आगमन के लिए बहुत महत्वपूर्ण है। आप देखें, मानव-से-मानव असहमति में न केवल मनुष्यों के बीच पेशेवर असहमति का एक रूप हो सकता है, बल्कि एआई और अहंकार के परिणामस्वरूप मानव-बनाम-एआई पेशेवर असहमति को अपनाने के बीच भी कुछ ऐसा ही हो सकता है। . सभी प्रकार के एआई एथिक्स विचार उत्पन्न होते हैं। एआई एथिक्स और एथिकल एआई मुद्दों के मेरे व्यापक और चल रहे कवरेज के लिए, देखें यहाँ लिंक और यहाँ लिंक, बस कुछ ही नाम के लिए.

एक आकर्षक कहानी के लिए तैयार हो जाइए।

जैसा कि हाल ही में समाचार में बताया गया था, "पेशेवर असहमति" का मामला स्पष्ट रूप से अलास्का एयरलाइन की उड़ान के दौरान सामने आया जो वाशिंगटन से सैन फ्रांसिस्को जा रहा था। समाचार रिपोर्टों के अनुसार, उड़ान गेट से दूर चली गई थी और टैक्सी और उड़ान भरने की अनुमति के लिए टरमैक पर इंतजार कर रही थी। एक तूफान चल रहा था और उड़ान में डेढ़ घंटे से अधिक की देरी हुई। पता चलता है कि विमान अंततः घूम गया और गेट पर वापस चला गया, जिसे कुछ यात्रियों ने सामान्य रूप से माना होगा कि यह केवल एक तूफान से संबंधित सुरक्षा सावधानी थी।

विभिन्न ट्वीट्स के अनुसार, ऐसा लगता है कि कॉकपिट में अपने समय के दौरान पायलट और कोपिलॉट के बीच किसी तरह का आउट-ऑफ-व्यू झगड़ा हुआ था और किसी तरह इस निष्कर्ष पर पहुंचे कि सबसे विवेकपूर्ण तरीका उड़ान को साफ़ करना और टर्मिनल पर वापस जाना होगा। . ट्वीट्स ने सुझाव दिया कि कप्तान और प्रथम अधिकारी स्पष्ट रूप से एक दूसरे के साथ नहीं मिल सके। एयरलाइन ने बाद में एक बयान जारी किया कि स्थिति दुर्भाग्यपूर्ण थी (स्थिति को स्पष्ट रूप से नहीं बताया गया था या समझाया नहीं गया था), दो उड़ान अधिकारियों का प्रबंधन द्वारा मूल्यांकन किया गया था और उन्हें उड़ान भरने के लिए उपयुक्त माना गया था, चालक दल की अदला-बदली हुई थी, और उड़ान समाप्त हो गई थी। और बाद में सैन फ्रांसिस्को पहुंचे।

एक अर्थ में, यदि वास्तव में पायलट और सह-पायलट में पेशेवर असहमति थी जैसे कि क्या विमान उड़ान भरने के लिए उपयुक्त रूप से तैयार था या क्या तूफान के माध्यम से उड़ने का जोखिम उपयुक्त सुरक्षा सीमा के भीतर था, उन यात्रियों को राहत दी जानी चाहिए और शुक्र है कि विमान गेट पर वापस आ गया। अफसोस करने के बजाय सुरक्षित रहना बेहतर है। एक अतिरिक्त देरी होने के कारण एक कठिन या प्रतिकूल उड़ान यात्रा से जुड़े जोखिमों की अनुमानित कमी के लायक है।

कुछ लोगों को आश्चर्य हो सकता है कि ऐसी पेशेवर असहमति उत्पन्न हो सकती है।

हमें शायद यह गलत धारणा है कि कॉकपिट में जो कुछ भी होता है वह पूरी तरह से सटीक और अच्छी तरह से लिखित होता है। मानव विवेक के सभी रूप प्रक्रिया से बाहर हो गए प्रतीत होते हैं। सटीक और पूरी तरह से गणना किए गए चार्ट के आधार पर, एक उड़ान या तो आगे बढ़ने के लिए ठीक है या नहीं। जब पूरी किट और कैबूडल को तथ्यों और आंकड़ों के अकाट्य कलन पर आधारित माना जाए तो कोई असहमति नहीं हो सकती।

यह इस मामले की पूरी सच्चाई नहीं है। निश्चित रूप से, प्रोटोकॉल और सभी प्रकार की जांच और संतुलन है, लेकिन यह मानव निर्णय के सभी को निचोड़ नहीं करता है। पायलट और कोपिलॉट अभी भी मानवीय निर्णय का प्रयोग करते हैं। सौभाग्य से, यह मानवीय निर्णय उड़ान के वर्षों से सम्मानित है। संभावना यह है कि एक वाणिज्यिक यात्री विमान में एक पायलट और सह-पायलट के पास पूर्व उड़ान अनुभव और उड़ान नियंत्रण में होने से जुड़े उनके कई वर्षों के गहन तर्क और निर्णय का आसानी से लाभ होता है।

मानवीय निर्णय की उल्लेखनीय भूमिका को देखते हुए, हम तार्किक रूप से अनुमान लगा सकते हैं कि एक पायलट और सह-पायलट के बीच कभी-कभी पेशेवर असहमति होने वाली होती है। अधिकांश समय संभवतः ऐसी असहमति बहुत कम होती है। हर दिन की उड़ानों के लिए पायलट और कोपिलॉट के समय की प्रधानता को अच्छी तरह से संरेखित किए जाने की संभावना है। केवल जब एक उड़ान परिदृश्य पारंपरिक सीमा से बाहर जा सकता है, तो हम तनावपूर्ण घर्षण उत्पन्न होने की उम्मीद करेंगे।

यदि दोनों के बीच एक मजबूत मतभेद है, तो मैं यह कहने की हिम्मत कर सकता हूं कि हम चाहते हैं कि वे इसे खत्म कर दें।

ऐसी स्थिति की कल्पना करें जिसमें पायलट सख्ती से आगे बढ़ना चाहता है लेकिन सह-पायलट को लगता है कि जोखिम बहुत अधिक है। पायलट के प्रति केवल सह-पायलट का झुकना अवांछनीय प्रतीत होगा। एक पायलट क्या करने के बारे में सोच रहा हो सकता है, इसके लिए कोपिलॉट एक चेक-एंड-बैलेंस है। उन लोगों के लिए जो चाहते हैं कि एक सह-पायलट चुप रहे और पूरी तरह से बिना सोचे-समझे काम करें, जो कुछ भी पायलट का आदेश है, ठीक है, यह बहुत अधिक आश्वासन नहीं है। एक सह-पायलट केवल एक अतिरिक्त "पायलट" नहीं है जो तस्वीर में तभी प्रवेश करता है जब पायलट पूरी तरह से अक्षम हो। यह कॉकपिट में पायलट और कोपिलॉट होने के मूल्य की एक गलत समझ है।

इसका दूसरा कोण है।

एक पायलट के मामले पर विचार करें जो यह नहीं मानता कि एक उड़ान आगे बढ़नी चाहिए और इस बीच सह-पायलट हवा में उठने के बारे में चिंतित है। फिर क्या? अपेक्षित पदानुक्रम के अनुसार, पायलट को पारंपरिक रूप से कोपिलॉट पर हावी होना चाहिए। प्राथमिक प्रभारी होने की निर्दिष्ट भूमिका पायलट को अन्यथा कुछ हद तक बराबर बनाती है। आम तौर पर, पायलट के पास कोपिलॉट की तुलना में अधिक समग्र उड़ान समय होता है और कोपिलॉट को पायलट की इच्छाओं (जब कारण के भीतर) को स्थगित करना माना जाता है।

किसी भी मामले में, मुझे लगता है कि हम सभी इस बात से सहमत हो सकते हैं कि उड़ान न भरने का निर्णय उड़ान भरने का निर्णय लेने से निश्चित रूप से कम जोखिम भरा विकल्प है। एक बार जब विमान हवा में ऊपर होता है, तो किसी भी सामान्य स्थिर जमीन पर होने की तुलना में जोखिम का स्तर बहुत अधिक हो जाता है। एक प्रथागत वाणिज्यिक उड़ान जो बिना हवा में आए टर्मिनल पर वापस टैक्सी करती है, उड़ान में जाने के बारे में किसी भी गर्म तीखी बहस के लिए एक बहुत ही सुखद समाधान होगा।

आइए गियर बदलते हैं और इस स्पंकी न्यूज आइटम का उपयोग पूरी तरह से अलग लेकिन संबंधित उद्देश्य के लिए करते हैं।

हमारे बीच एआई-आधारित स्वायत्त प्रणालियों का प्रचलन धीरे-धीरे बढ़ रहा है। कभी-कभी एआई शो को वैसे ही चलाता है जैसे वह था। एआई ए से जेड तक सब कुछ करता है, और हम इसे एआई के रूप में मान सकते हैं जो पूरी तरह से स्वायत्त है या लगभग ऐसा ही है। अन्य मामलों में, हमारे पास एआई हो सकता है जो मानव-इन-लूप होने पर निर्भर होने के लिए कुछ हद तक इंटरैक्ट करता है और प्रोग्राम किया जाता है।

मैं एक एआई-आधारित स्वायत्त या अर्ध-स्वायत्त प्रणाली के मामले पर ध्यान केंद्रित करना चाहता हूं कि गेट-गो से लूप में एक मानव है। एआई और मानव को जानबूझकर एक साथ जोर दिया जाता है और माना जाता है कि वे एक दूसरे के साथ मिलकर काम कर रहे हैं। वे हाथ में एक विशेष कार्य करने में सहकर्मी हैं। अकेले एआई को कार्य पर कार्य नहीं करना चाहिए। एआई को नामित मानव-इन-लूप के साथ बातचीत करनी चाहिए।

मैं इस विशेषता को उन स्थितियों से अलग करने के लिए लाता हूं जिनमें मानव-में-लूप को एक वैकल्पिक पहलू माना जाता है। संक्षेप में, एआई को मुफ्त लगाम दी जाती है। यदि AI मानव का उपयोग करने का विकल्प चुनता है, तो ऐसा ही करें। कोई आवश्यकता नहीं है कि एआई को नामित मानव के साथ आधार को छूना या हाथ से काम करना है। मैं जिन विश्लेषणों के बारे में बताने जा रहा हूं, वे निश्चित रूप से उस तरह के प्रासंगिक हैं वैकल्पिक बातचीत व्यवस्था, लेकिन यह वह नहीं है जिसे मैं विशेष रूप से इस विशेष चर्चा में चला रहा हूं।

ठीक है, तो हमारे पास किसी प्रकार का कार्य है जिस पर एक मानव और एक एआई एक दूसरे से अविभाज्य रूप से एक साथ काम करने जा रहे हैं। एक अमूर्त अर्थ में, हमारे पास एक सीट पर एक इंसान बैठा है और दूसरी सीट पर एक एआई सिस्टम बैठा है। मैं इसे चुटीले अंदाज में इसलिए कह रहा हूं क्योंकि हम इस चर्चा को रोबोट तक सीमित नहीं कर रहे हैं, उदाहरण के लिए, जो वास्तव में एक सीट पर बैठा हो सकता है। मैं प्रतीकात्मक रूप से इस धारणा की ओर इशारा कर रहा हूं कि एआई कहीं न कहीं कार्य में भाग ले रहा है और ऐसा ही मानव भी है। शारीरिक रूप से, उनका ठिकाना चर्चा के लिए विशेष रूप से महत्वपूर्ण नहीं है।

आप इस बारे में अनिश्चित हो सकते हैं कि ऐसी परिस्थिति कब उत्पन्न हो सकती है।

बहुत आसान।

मैं, बाद में, स्वायत्त वाहनों और सेल्फ-ड्राइविंग कारों के आगमन पर चर्चा करूँगा। स्वायत्तता के कुछ स्तरों पर, एआई और मानव को एक साथ काम करना चाहिए। हो सकता है कि AI कार चला रहा हो और अनुरोध करता हो कि मानव ड्राइविंग नियंत्रण अपने हाथ में ले ले। हो सकता है कि मानव कार चला रहा हो और नियंत्रण लेने के लिए AI को सक्रिय कर रहा हो। वे ड्राइविंग नियंत्रण पर मोड़ ले रहे हैं।

इसके अलावा, कुछ डिज़ाइनों में एआई हर समय अनिवार्य रूप से सक्रिय रहता है (या, जब तक कि बंद न हो), जैसे कि एआई हमेशा तैयार रहता है। इसके अलावा, एआई सीधे तौर पर हस्तक्षेप कर सकता है, यहां तक ​​​​कि मानव द्वारा पूछे बिना, सामने आने वाली स्थिति के आधार पर। उदाहरण के लिए मान लीजिए कि ऐसा प्रतीत होता है कि मनुष्य पहिए पर सो गया है। चूंकि मानव एआई को सक्रिय रूप से सक्रिय नहीं कर सकता है (क्योंकि व्यक्ति सो रहा है), एआई को मानव से नियंत्रण लेने के लिए प्रोग्राम किया जा सकता है।

कुछ डिज़ाइन एआई और मनुष्यों को दोहरे ड्राइविंग दृष्टिकोण में लाते हैं। AI चला रहा है और इंसान चला रहा है। या, यदि आप चाहें, तो मानव गाड़ी चला रहा है और AI भी चला रहा है। वे सभी वाहन चला रहे हैं। मैं इसे उन विशेष रूप से धांधली कारों से पसंद करता हूं जिनका उपयोग आपने ड्राइवर प्रशिक्षण लेते समय किया था और वाहन में ड्राइविंग नियंत्रण के दो सेट थे, एक छात्र चालक के लिए और दूसरा ड्राइविंग प्रशिक्षक के लिए।

यह उस सेटिंग का एक उदाहरण है जिसमें एआई और इंसान एक कार्य पर संयुक्त रूप से काम कर रहे हैं। सभी तरह की संभावनाएं मौजूद हैं। अन्य प्रकार के स्वायत्त वाहन इसी तरह तैयार किए जा सकते हैं, जैसे हवाई जहाज, ड्रोन, सबमर्सिबल, सतह के जहाज, ट्रेन, और इसी तरह। हमें केवल वाहनों और परिवहन सेटिंग्स पर विचार करने की आवश्यकता नहीं है। एक मेडिकल डॉक्टर और एक एआई सिस्टम द्वारा संयुक्त रूप से किए जा रहे मेडिकल डोमेन और सर्जरी की कल्पना करें। असीमित सूची है।

मुझे लगभग ऐसा लगता है कि एक मानव और एक एआई के बारे में शास्त्रीय रूप से अपमानजनक मजाक का जिक्र है जो एक साथ बार में चलते हैं। एआई में उन लोगों के लिए यह काफी हंसी की बात है।

गंभीरता से, आइए एक मानव और एक AI सिस्टम के फोकस पर लौटते हैं जो किसी दिए गए कार्य पर एक साथ काम कर रहा है। सबसे पहले, मैं एंथ्रोपोमोर्फिंग एआई से बचना चाहता हूं, जिस पर मैं जोर दूंगा। एआई संवेदनशील नहीं है। कृपया यह ध्यान में रखें।

यहाँ पर विचार करने के लिए कुछ है: क्या एक नामित मानव-इन-लूप हमेशा सह-टीम वाले एआई के साथ पूर्ण सहमति में होगा?

किसी भी जटिल कार्य के लिए, यह असंभव प्रतीत होता है कि मानव और एआई पूरी तरह से और हमेशा पूरी तरह से लॉक एंड स्टेप में रहेंगे। मानव कुछ अवसरों पर संभवतः एआई से असहमत होने वाला है। हम उस धारणा को बैंक तक ले जा सकते हैं।

मैं चाहता हूं कि आप इस शायद आश्चर्यजनक संभावना पर भी विचार करें: क्या एआई हमेशा एक निर्दिष्ट मानव-इन-लूप के साथ पूरी तरह से सहमत होगा?

फिर, किसी भी जटिल कार्य के लिए, यह काफी बोधगम्य प्रतीत होगा कि एआई कुछ अवसरों पर मनुष्यों के साथ समझौता नहीं करेगा। यदि आप पहले से ही इस विचार की ओर झुक रहे हैं कि एआई हमेशा गलत होना चाहिए जबकि मनुष्य हमेशा सही होना चाहिए, तो आपको जल्दबाजी में निष्कर्ष पर पुनर्विचार करना बुद्धिमानी होगी। एक ऐसी कार की कल्पना करें जिसमें मानव और एआई संयुक्त रूप से अर्ध-स्वायत्त वाहन चला रहे हों। मनुष्य ईंट की दीवार की ओर बढ़ता है। क्यों? हम नहीं जानते, शायद इंसान नशे में है या सो गया है, लेकिन हम यह जरूर जानते हैं कि ईंट की दीवार से टकराना अच्छा विचार नहीं है, बाकी सब बराबर होना। एआई आगामी आपदा का पता लगा सकता है और आसन्न बाधा से दूर जाने की कोशिश कर सकता है।

सभी ने बताया, हमारे पास एआई और मानव के एक-दूसरे से असहमत होने की स्पष्ट संभावना है। एक ही बात कहने का दूसरा तरीका यह है कि मनुष्य और AI एक दूसरे से असहमत हैं। ध्यान दें कि मैं नहीं चाहता कि असहमति की दिशा या व्यवहार्यता के बारे में कुछ भी सुझाव देने के लिए एआई-और-मानव बनाम मानव-और-एआई का अनुक्रम।

दो कार्यकर्ता, एक मानव और एक जो AI है, एक दूसरे से असहमत हैं।

हम पहले से घोषणा कर सकते हैं कि जब भी किसी दिए गए AI और किसी दिए गए मानव के बीच कोई असहमति होती है, तो हम पहले ही घोषणा कर देते हैं कि मानव AI पर हावी है। ऐसा कहा जा रहा है, एक ईंट की दीवार में जा रही कार के बारे में मेरा उदाहरण उदाहरण हमें इस बात से विचलित करता प्रतीत होता है कि मानव हमेशा सही होने वाला है।

इसके विपरीत, हम पहले से घोषणा करने का विकल्प चुन सकते हैं कि जब भी कोई असहमति उत्पन्न होती है तो हम पहले ही स्थापित कर चुके होंगे कि एआई सही है और मानव गलत है। यह एक समझदारी से सामान्यीकृत प्रावधान भी नहीं है। एक कार की कल्पना करें जिसमें एआई में कुछ एम्बेडेड सॉफ़्टवेयर त्रुटि या बग है, और एआई वाहन को सड़क से और खाई में चलाने की कोशिश कर रहा है। यह मानते हुए कि बाकी सब समान है, मानव को इस एआई ड्राइविंग क्रिया को दूर करने और वाहन को गली में उतरने से रोकने में सक्षम होना चाहिए।

आइए इसका एक त्वरित सारांश करते हैं:

  • क्या मानव-में-लूप हमेशा एआई के साथ पूरी तरह से सहमत होगा? उत्तर: नहीं.
  • क्या एआई हमेशा मानव-में-लूप के साथ पूरी तरह से सहमत होगा? उत्तर: नहीं.
  • क्या एआई की तुलना में मानव-में-लूप हमेशा सही रहेगा? उत्तर: जरुरी नहीं।
  • क्या मानव-में-लूप की तुलना में AI हमेशा सही रहेगा? उत्तर: जरूरी नहीं.

आप निश्चित रूप से एआई को डिफ़ॉल्ट रूप से "गलत" या कमजोर पार्टी के रूप में मानने के लिए सेट कर सकते हैं और इसलिए जब भी कोई असहमति दिखाई देती है तो हमेशा मानव को टाल दें। इसी तरह, आप एआई को यह मानने के लिए सेट कर सकते हैं कि जब भी कोई इंसान एआई से असहमत होता है तो एआई को "सही" माना जाता है। मैं स्पष्ट करना चाहता हूं कि यदि हम ऐसा करना चाहते हैं तो हम प्रोग्रामेटिक रूप से ऐसा कर सकते हैं। हालांकि मैं दावा कर रहा हूं कि सामान्य तौर पर, यह हमेशा ऐसा नहीं होने वाला है। निश्चित रूप से ऐसी सेटिंग्स हैं जिनमें हम पहले से नहीं जानते हैं कि किसी दिए गए कार्य से संबंधित असहमति पर एआई "सही" है या मानव "सही" है।

मैंने आपको एक बहुत ही महत्वपूर्ण और अत्यधिक जटिल प्रश्न तक पहुँचाया है।

जब मानव-में-लूप और एआई के बीच एक पेशेवर असहमति होती है तो हमें क्या करना चाहिए (या, समकक्ष, हम इसे एआई और मानव-इन-लूप के बीच होने के रूप में वाक्यांश कर सकते हैं)?

प्रश्न को चकमा देने की कोशिश न करें।

कुछ लोग तर्क दे सकते हैं कि ऐसा कभी नहीं होगा, लेकिन जैसा कि मैंने कार के बारे में अपने उदाहरण में बताया है, यह निश्चित रूप से हो सकता है। कुछ लोग तर्क दे सकते हैं कि मनुष्य स्पष्ट रूप से श्रेष्ठ है और उसे किसी भी असहमति का विजेता होना चाहिए। कार और ईंट की दीवार का मेरा उदाहरण उसे नीचे गिरा देता है। ऐसे एआई प्रस्तावक हैं जो इस बात पर जोर दे सकते हैं कि एआई को विजेता होना चाहिए, क्योंकि मानवीय भावनाओं पर काबू पाने और उन बेतरतीब फजी-सोच वाले मनुष्यों द्वारा प्रचंड सोच के कारण। एक बार फिर, मेरा दूसरा उदाहरण कार को खाई में ले जाने के लिए उस दावे को रेखांकित करता है।

वास्तविक दुनिया में, एआई और मनुष्य असहमत होने जा रहे हैं, तब भी जब दोनों को संयुक्त रूप से किए गए कार्य को करने के लिए जानबूझकर एक टीम बनाने की स्थिति में लाया जाता है। यह होगा। हम अपना सिर रेत में नहीं डाल सकते और दिखावा नहीं कर सकते कि ऐसा नहीं होगा।

हमने देखा कि विमान का संचालन करने वाले मनुष्य स्पष्ट रूप से असहमत हो गए। शुक्र है, वे असहमत होने के लिए सहमत हुए, ऐसा लगता है। वे विमान को वापस टर्मिनल पर ले आए। उन्होंने असहमति से निपटने का एक साधन ढूंढ लिया। उनकी असहमति का समाधान अच्छी तरह से काम करता था, इसकी तुलना में कि शायद वे कॉकपिट में मुट्ठियों में चले गए थे या शायद हवा में उड़ गए थे और एक-दूसरे के साथ जुझारू बने रहे। यह एक दुखद परिदृश्य है जो असहनीय है, और हम आभारी हो सकते हैं कि ऐसा नहीं हुआ।

मुझे एआई और मानव-में-लूप (या, मानव-में-लूप और एआई) असहमति को हल करने के विभिन्न तरीकों की मेरी सूची प्रदान करने की अनुमति दें:

  • एआई और टीम-अप मानव काम की चीजें (सौहार्दपूर्ण रूप से या नहीं)
  • मानव डिफ़ॉल्ट रूप से AI पर हावी रहता है
  • एआई डिफ़ॉल्ट रूप से मानव पर हावी है
  • कुछ अन्य पूर्व निर्धारित निश्चित संकल्प, डिफ़ॉल्ट रूप से प्रबल होते हैं
  • तृतीय-पक्ष मानव लूप-इन है और पार्टियों पर उनका संकेत प्रबल होता है
  • तृतीय-पक्ष AI लूप-इन है और इसका संकेत पार्टियों पर हावी है
  • तीसरे पक्ष का मानव मौजूदा मानव की जगह लेता है, चीजें नए सिरे से आगे बढ़ती हैं
  • तृतीय-पक्ष AI मौजूदा AI को बदल देता है, चीजें नए सिरे से आगे बढ़ती हैं
  • तृतीय-पक्ष मानव मौजूदा AI की जगह लेता है, चीजें नए सिरे से आगे बढ़ती हैं (अब मानव-से-मानव)
  • तृतीय-पक्ष AI मौजूदा मानव की जगह लेता है, चीजें नए सिरे से आगे बढ़ती हैं (अब AI-to-AI)
  • अन्य

वे बहुतायत से अनपैक होने के योग्य हैं।

एआई और मानव असहमति से निपटने के तरीके के बारे में जंगली और ऊनी विचारों के बारे में कुछ और मांस और आलू में जाने से पहले, आइए गहन आवश्यक विषयों पर कुछ अतिरिक्त बुनियादी बातों पर ध्यान दें। हमें एआई एथिक्स और विशेष रूप से मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) के आगमन में संक्षेप में गोता लगाने की जरूरत है।

आप अस्पष्ट रूप से जानते होंगे कि एआई क्षेत्र में और एआई के क्षेत्र के बाहर भी इन दिनों सबसे तेज आवाजों में से एक में नैतिक एआई के अधिक से अधिक समानता के लिए चिल्लाना शामिल है। आइए देखें कि एआई एथिक्स और एथिकल एआई को संदर्भित करने का क्या अर्थ है। उसके ऊपर, हम यह पता लगाएंगे कि जब मैं मशीन लर्निंग और डीप लर्निंग की बात करता हूं तो मेरा क्या मतलब होता है।

एआई एथिक्स का एक विशेष खंड या हिस्सा जिस पर मीडिया का बहुत अधिक ध्यान गया है, उसमें एआई शामिल है जो अवांछित पूर्वाग्रहों और असमानताओं को प्रदर्शित करता है। आप शायद जानते होंगे कि जब एआई का नवीनतम युग चल रहा था, जिसे अब कुछ लोग कहते हैं, उसके लिए उत्साह का एक बड़ा विस्फोट हुआ था एआई फॉर गुड. दुर्भाग्य से, उस भीषण उत्साह की ऊँची एड़ी के जूते पर, हमने देखना शुरू कर दिया एआई फॉर बैड. उदाहरण के लिए, विभिन्न एआई-आधारित चेहरे की पहचान प्रणालियों को नस्लीय पूर्वाग्रहों और लिंग पूर्वाग्रहों के रूप में प्रकट किया गया है, जिनकी मैंने चर्चा की है यहाँ लिंक.

के खिलाफ वापस लड़ने के प्रयास एआई फॉर बैड सक्रिय रूप से चल रहे हैं। मुखर के अलावा कानूनी गलत कामों पर लगाम लगाने के लिए, एआई नैतिकता को सही करने के लिए एआई एथिक्स को अपनाने की दिशा में भी एक महत्वपूर्ण धक्का है। धारणा यह है कि हमें एआई के विकास और क्षेत्ररक्षण के लिए प्रमुख नैतिक एआई सिद्धांतों को अपनाना और उनका समर्थन करना चाहिए ताकि यह कम हो सके। एआई फॉर बैड और साथ ही साथ बेहतर को बढ़ावा देना और बढ़ावा देना एआई फॉर गुड.

संबंधित धारणा पर, मैं एआई संकट के समाधान के हिस्से के रूप में एआई का उपयोग करने की कोशिश करने का एक समर्थक हूं, उस तरह की सोच में आग से आग से लड़ रहा हूं। उदाहरण के लिए हम नैतिक एआई घटकों को एआई सिस्टम में एम्बेड कर सकते हैं जो निगरानी करेगा कि बाकी एआई कैसे काम कर रहा है और इस प्रकार संभावित रूप से किसी भी भेदभावपूर्ण प्रयासों को वास्तविक समय में पकड़ सकता है, मेरी चर्चा देखें यहाँ लिंक. हमारे पास एक अलग एआई सिस्टम भी हो सकता है जो एक प्रकार के एआई एथिक्स मॉनिटर के रूप में कार्य करता है। एआई सिस्टम एक ओवरसियर के रूप में कार्य करता है ताकि पता लगाया जा सके कि कोई अन्य एआई अनैतिक रसातल में जा रहा है (ऐसी क्षमताओं का मेरा विश्लेषण यहां देखें) यहाँ लिंक).

एक क्षण में, मैं आपके साथ AI एथिक्स में अंतर्निहित कुछ व्यापक सिद्धांत साझा करूँगा। इस प्रकार की बहुत सारी सूचियाँ इधर-उधर तैर रही हैं। आप कह सकते हैं कि सार्वभौमिक अपील और सहमति की अभी तक एक भी सूची नहीं है। यही दुर्भाग्यपूर्ण खबर है। अच्छी खबर यह है कि कम से कम एआई एथिक्स सूचियां आसानी से उपलब्ध हैं और वे काफी समान हैं। सभी ने बताया, इससे पता चलता है कि एक तरह के तर्कपूर्ण अभिसरण के द्वारा हम एआई एथिक्स में सामान्य समानता की ओर अपना रास्ता खोज रहे हैं।

सबसे पहले, आइए संक्षेप में कुछ समग्र नैतिक एआई उपदेशों को कवर करें जो यह स्पष्ट करते हैं कि एआई को क्राफ्ट करने, क्षेत्ररक्षण करने या उपयोग करने वाले किसी भी व्यक्ति के लिए एक महत्वपूर्ण विचार क्या होना चाहिए।

उदाहरण के लिए, जैसा कि वेटिकन ने में कहा है रोम कॉल फॉर एआई एथिक्स और जैसा कि मैंने गहराई से कवर किया है यहाँ लिंक, ये उनके पहचाने गए छह प्राथमिक AI नैतिकता सिद्धांत हैं:

  • पारदर्शिता: सिद्धांत रूप में, AI सिस्टम को समझाने योग्य होना चाहिए
  • समावेशन: सभी मनुष्यों की आवश्यकताओं को ध्यान में रखा जाना चाहिए ताकि हर कोई लाभान्वित हो सके, और सभी व्यक्तियों को स्वयं को व्यक्त करने और विकसित करने के लिए सर्वोत्तम संभव परिस्थितियों की पेशकश की जा सके।
  • ज़िम्मेदारी: जो लोग एआई के उपयोग को डिजाइन और तैनात करते हैं, उन्हें जिम्मेदारी और पारदर्शिता के साथ आगे बढ़ना चाहिए
  • निष्पक्षता: पूर्वाग्रह के अनुसार निर्माण या कार्य न करें, इस प्रकार निष्पक्षता और मानवीय गरिमा की रक्षा करें
  • विश्वसनीयता: AI सिस्टम मज़बूती से काम करने में सक्षम होना चाहिए
  • सुरक्षा और गोपनीयता: AI सिस्टम को सुरक्षित रूप से काम करना चाहिए और उपयोगकर्ताओं की गोपनीयता का सम्मान करना चाहिए।

जैसा कि अमेरिकी रक्षा विभाग (DoD) ने अपने में कहा है आर्टिफिशियल इंटेलिजेंस के उपयोग के लिए नैतिक सिद्धांत और जैसा कि मैंने गहराई से कवर किया है यहाँ लिंक, ये उनके छह प्राथमिक AI नैतिकता सिद्धांत हैं:

  • उत्तरदायी: DoD कर्मी एआई क्षमताओं के विकास, परिनियोजन और उपयोग के लिए जिम्मेदार रहते हुए उचित स्तर के निर्णय और देखभाल का प्रयोग करेंगे।
  • न्यायसंगत: विभाग एआई क्षमताओं में अनपेक्षित पूर्वाग्रह को कम करने के लिए जानबूझकर कदम उठाएगा।
  • पता लगाने योग्य: विभाग की एआई क्षमताओं को विकसित और तैनात किया जाएगा ताकि संबंधित कर्मियों के पास पारदर्शी और ऑडिट करने योग्य कार्यप्रणाली, डेटा स्रोत और डिजाइन प्रक्रिया और प्रलेखन सहित एआई क्षमताओं पर लागू प्रौद्योगिकी, विकास प्रक्रियाओं और परिचालन विधियों की उचित समझ हो।
  • विश्वसनीय: विभाग की एआई क्षमताओं में स्पष्ट, अच्छी तरह से परिभाषित उपयोग होंगे, और ऐसी क्षमताओं की सुरक्षा, सुरक्षा और प्रभावशीलता उनके पूरे जीवन चक्र में परिभाषित उपयोगों के भीतर परीक्षण और आश्वासन के अधीन होगी।
  • शासन योग्य: विभाग अपने इच्छित कार्यों को पूरा करने के लिए एआई क्षमताओं को डिजाइन और इंजीनियर करेगा, जबकि अनपेक्षित परिणामों का पता लगाने और उनसे बचने की क्षमता रखता है, और अनपेक्षित व्यवहार प्रदर्शित करने वाले तैनात सिस्टम को निष्क्रिय या निष्क्रिय करने की क्षमता रखता है।

मैंने एआई नैतिकता सिद्धांतों के विभिन्न सामूहिक विश्लेषणों पर भी चर्चा की है, जिसमें शोधकर्ताओं द्वारा तैयार किए गए एक सेट को शामिल किया गया है, जिसने "एआई एथिक्स दिशानिर्देशों का वैश्विक परिदृश्य" नामक एक पेपर में कई राष्ट्रीय और अंतर्राष्ट्रीय एआई नैतिकता सिद्धांतों के सार की जांच और संघनित किया है। में प्रकृति), और यह कि मेरा कवरेज यहां पर पड़ताल करता है यहाँ लिंक, जिसने इस कीस्टोन सूची का नेतृत्व किया:

  • ट्रांसपेरेंसी
  • न्याय और निष्पक्षता
  • गैर-नुकसान
  • उत्तरदायित्व
  • निजता
  • उपकार
  • स्वतंत्रता और स्वायत्तता
  • ट्रस्ट
  • स्थिरता
  • गौरव
  • एकजुटता

जैसा कि आप सीधे अनुमान लगा सकते हैं, इन सिद्धांतों के तहत विशिष्टताओं को निर्धारित करने की कोशिश करना बेहद कठिन हो सकता है। इससे भी अधिक, उन व्यापक सिद्धांतों को पूरी तरह से मूर्त और विस्तृत रूप से उपयोग करने के प्रयास में एआई सिस्टम को क्राफ्ट करते समय उपयोग करने का प्रयास भी दरार करने के लिए एक कठिन अखरोट है। एआई एथिक्स के नियम क्या हैं और उन्हें आम तौर पर कैसे देखा जाना चाहिए, इसके बारे में कुछ हाथ मिलाना आसान है, जबकि एआई कोडिंग में यह एक अधिक जटिल स्थिति है जो सड़क से मिलने वाली सत्यनिष्ठ रबर है।

एआई एथिक्स सिद्धांतों का उपयोग एआई डेवलपर्स द्वारा किया जाना चाहिए, साथ ही एआई विकास प्रयासों का प्रबंधन करने वाले, और यहां तक ​​​​कि वे भी जो अंततः एआई सिस्टम पर क्षेत्र और रखरखाव करते हैं। विकास और उपयोग के पूरे एआई जीवन चक्र में सभी हितधारकों को नैतिक एआई के स्थापित मानदंडों के पालन के दायरे में माना जाता है। यह एक महत्वपूर्ण हाइलाइट है क्योंकि सामान्य धारणा यह है कि "केवल कोडर्स" या एआई प्रोग्राम करने वाले एआई एथिक्स धारणाओं का पालन करने के अधीन हैं। जैसा कि पहले कहा गया है, एआई को विकसित करने और क्षेत्र में लाने के लिए एक गाँव की आवश्यकता होती है, और जिसके लिए पूरे गाँव को एआई एथिक्स के नियमों से वाकिफ और उसका पालन करना पड़ता है।

आइए यह भी सुनिश्चित करें कि हम आज के AI की प्रकृति के बारे में एक ही पृष्ठ पर हैं।

आज कोई ऐसा AI नहीं है जो संवेदनशील हो। हमारे पास यह नहीं है। हम नहीं जानते कि संवेदनशील एआई संभव होगा या नहीं। कोई भी उपयुक्त रूप से भविष्यवाणी नहीं कर सकता है कि क्या हम संवेदनशील एआई प्राप्त करेंगे, और न ही संवेदनशील एआई किसी तरह चमत्कारिक रूप से स्वचालित रूप से कम्प्यूटेशनल संज्ञानात्मक सुपरनोवा के रूप में उत्पन्न होगा (आमतौर पर विलक्षणता के रूप में संदर्भित, मेरा कवरेज देखें यहाँ लिंक).

जिस प्रकार के एआई पर मैं ध्यान केंद्रित कर रहा हूं वह गैर-संवेदी एआई है जो आज हमारे पास है। अगर हम बेतहाशा अटकलें लगाना चाहते हैं संवेदनशील एआई, यह चर्चा मौलिक रूप से अलग दिशा में जा सकती है। माना जाता है कि एक संवेदनशील एआई मानव गुणवत्ता का होगा। आपको यह विचार करना होगा कि संवेदनशील एआई मानव के संज्ञानात्मक समकक्ष है। इसके अलावा, चूंकि कुछ अनुमान लगाते हैं कि हमारे पास सुपर-इंटेलिजेंट एआई हो सकता है, यह कल्पना की जा सकती है कि ऐसा एआई इंसानों की तुलना में अधिक स्मार्ट हो सकता है (एक संभावना के रूप में सुपर-इंटेलिजेंट एआई की मेरी खोज के लिए, देखें यहाँ कवरेज).

आइए चीजों को और नीचे रखें और आज के कम्प्यूटेशनल गैर-संवेदी एआई पर विचार करें।

महसूस करें कि आज का AI किसी भी तरह से मानव सोच के समान "सोचने" में सक्षम नहीं है। जब आप एलेक्सा या सिरी के साथ बातचीत करते हैं, तो बातचीत की क्षमता मानवीय क्षमताओं के समान लग सकती है, लेकिन वास्तविकता यह है कि यह कम्प्यूटेशनल है और इसमें मानवीय ज्ञान का अभाव है। एआई के नवीनतम युग ने मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) का व्यापक उपयोग किया है, जो कम्प्यूटेशनल पैटर्न मिलान का लाभ उठाते हैं। इसने एआई सिस्टम को जन्म दिया है जिसमें मानव जैसी प्रवृत्तियों का आभास होता है। इस बीच, आज कोई ऐसा AI नहीं है जिसमें सामान्य ज्ञान की समानता हो और न ही मजबूत मानवीय सोच का कोई संज्ञानात्मक आश्चर्य हो।

एमएल/डीएल कम्प्यूटेशनल पैटर्न मिलान का एक रूप है। सामान्य तरीका यह है कि आप निर्णय लेने के कार्य के बारे में डेटा इकट्ठा करते हैं। आप डेटा को ML/DL कंप्यूटर मॉडल में फीड करते हैं। वे मॉडल गणितीय पैटर्न खोजने की कोशिश करते हैं। ऐसे पैटर्न खोजने के बाद, यदि ऐसा पाया जाता है, तो AI सिस्टम नए डेटा का सामना करते समय उन पैटर्न का उपयोग करेगा। नए डेटा की प्रस्तुति पर, वर्तमान निर्णय को प्रस्तुत करने के लिए "पुराने" या ऐतिहासिक डेटा पर आधारित पैटर्न लागू होते हैं।

मुझे लगता है कि आप अनुमान लगा सकते हैं कि यह कहाँ जा रहा है। यदि मानव जो निर्णयों पर प्रतिरूप बनाते रहे हैं, वे अवांछित पूर्वाग्रहों को शामिल कर रहे हैं, तो संभावना है कि डेटा इसे सूक्ष्म लेकिन महत्वपूर्ण तरीकों से दर्शाता है। मशीन लर्निंग या डीप लर्निंग कम्प्यूटेशनल पैटर्न मिलान केवल गणितीय रूप से डेटा की नकल करने की कोशिश करेगा। एआई-क्राफ्टेड मॉडलिंग के सामान्य ज्ञान या अन्य संवेदनशील पहलुओं की कोई समानता नहीं है।

इसके अलावा, एआई डेवलपर्स को एहसास नहीं हो सकता है कि क्या हो रहा है। एमएल/डीएल में रहस्यमय गणित अब छिपे हुए पूर्वाग्रहों को दूर करना मुश्किल बना सकता है। आप सही उम्मीद करेंगे और उम्मीद करेंगे कि एआई डेवलपर्स संभावित दफन पूर्वाग्रहों के लिए परीक्षण करेंगे, हालांकि यह जितना प्रतीत हो सकता है उससे कहीं अधिक कठिन है। एक ठोस मौका मौजूद है कि अपेक्षाकृत व्यापक परीक्षण के साथ भी एमएल/डीएल के पैटर्न मिलान मॉडल के भीतर अभी भी पूर्वाग्रह अंतर्निहित होंगे।

आप कुछ हद तक प्रसिद्ध या कुख्यात कहावत का उपयोग कर सकते हैं कचरा-कचरा-बाहर। बात यह है कि, यह पूर्वाग्रहों के समान है-इसमें एआई के भीतर डूबे हुए पूर्वाग्रहों के रूप में कपटी रूप से संक्रमित हो जाते हैं। एआई का एल्गोरिथम निर्णय लेने (एडीएम) स्वयंसिद्ध रूप से असमानताओं से भरा हो जाता है।

अच्छा नही।

आइए एआई और मानव के बीच असहमति पर अपना ध्यान केंद्रित करें।

मैंने पहले संकेत दिया है कि ये कुछ असहमति-समाधान की रणनीतियाँ हैं:

  • एआई और टीम-अप मानव काम की चीजें (सौहार्दपूर्ण रूप से या नहीं)
  • मानव डिफ़ॉल्ट रूप से AI पर हावी रहता है
  • एआई डिफ़ॉल्ट रूप से मानव पर हावी है
  • कुछ अन्य पूर्व निर्धारित निश्चित संकल्प, डिफ़ॉल्ट रूप से प्रबल होते हैं
  • तृतीय-पक्ष मानव लूप-इन है और पार्टियों पर उनका संकेत प्रबल होता है
  • तृतीय-पक्ष AI लूप-इन है और इसका संकेत पार्टियों पर हावी है
  • तीसरे पक्ष का मानव मौजूदा मानव की जगह लेता है, चीजें नए सिरे से आगे बढ़ती हैं
  • तृतीय-पक्ष AI मौजूदा AI को बदल देता है, चीजें नए सिरे से आगे बढ़ती हैं
  • तृतीय-पक्ष मानव मौजूदा AI की जगह लेता है, चीजें नए सिरे से आगे बढ़ती हैं (अब मानव-से-मानव)
  • तृतीय-पक्ष AI मौजूदा मानव की जगह लेता है, चीजें नए सिरे से आगे बढ़ती हैं (अब AI-to-AI)
  • अन्य

इन्हें अनपैक करने का समय आ गया है।

सबसे पहले, मान लें कि यह सब कुछ है पेशेवर असहमति।

एक पेशेवर असहमति को काम से संबंधित कार्य से जुड़ी असहमति के रूप में परिभाषित किया जाता है।

उदाहरण के लिए, एक पायलट और सह-पायलट के बीच एक असहमति जो तूफान का सामना कर रही उड़ान के साथ आगे बढ़ना है या नहीं, इसे उचित रूप से एक पेशेवर असहमति के रूप में लेबल किया जा सकता है। इसके विपरीत, पायलट किस ब्रांड की कॉफी की वकालत करता है, इस पर एक जोरदार असहमति उस ब्रांड की तुलना में है जिसे कोपिलॉट पसंद करता है, इस विशेष संदर्भ में गैर-पेशेवर असहमति के रूप में आसानी से वर्गीकृत किया जाता है।

बेशक, अगर एक गैर-पेशेवर असहमति एक पेशेवर असहमति में बदल जाती है, तो हम अंततः गैर-पेशेवर असहमति में पेशेवर के लिए एक अनुमानित स्रोत या चिंगारी के रूप में रुचि ले सकते हैं। कल्पना कीजिए कि एक पायलट और सह-पायलट इस बात पर कड़वाहट से बहस करते हैं कि कॉफी का कौन सा ब्रांड सबसे अच्छा है, जो बाद में खेदजनक रूप से उड़ान-विशिष्ट चिंताओं (पन!) में फैल जाता है, जैसे कि उतारना है या नहीं।

दूसरा, हमें पेशेवर असहमति की भयावहता को ध्यान में रखना होगा।

शायद पायलट और कोपिलॉट या उड़ान भरने के लिए आगे बढ़ने पर हल्की असहमति। वे आमने-सामने नहीं हैं और केवल टेकऑफ़ करने के पेशेवरों और विपक्षों पर विचार कर रहे हैं। यह एक पेशेवर असहमति का कैलिबर या परिमाण नहीं है, जिस पर हम यहां विचार कर रहे हैं। बात यह है कि यह हो सकता है कि पेशेवर असहमति क्षणभंगुर हो और दोनों पक्ष सौहार्दपूर्वक या कम से कम समय पर एक संकल्प पर काम करें। आम तौर पर, दायरे के भीतर पेशेवर असहमति का फोकस वे होते हैं जो प्रतीत होता है कि अट्रैक्टिव हैं, और दोनों पक्ष असहमति में स्थिर रहते हैं।

तीसरा, इन दिशानिर्देशों को लागू करने के लिए आमतौर पर कुछ गंभीरता से होना चाहिए।

यदि तूफान के कारण उड़ान जोखिम में है या हवाई जहाज को इस तरह की यात्रा के लिए पूरी तरह से तैयार नहीं माना जाता है, तो उड़ान भरने या न उड़ने का विकल्प एक निश्चित रूप से जीवन-या-मृत्यु का निर्णय है। यह गंभीर व्यवसाय है। हम अभी भी कम प्रभावशाली पेशेवर असहमति के लिए दिशानिर्देशों को लागू कर सकते हैं, हालांकि यह इसके लायक होने की तुलना में अधिक परेशान करने वाला हो सकता है।

ठीक है, हमारे विचार हैं कि:

  • असहमति कुछ गैर-पेशेवर के बजाय मुख्य रूप से पेशेवर रूप से उन्मुख है
  • असहमति एक स्थायी प्रकृति की है और न केवल क्षणभंगुर या अन्यथा आसानी से हल हो गई है
  • असहमति गंभीर परिणामों की भविष्यवाणी करती है और आमतौर पर एक प्रभावशाली परिणाम का होता है
  • पार्टियां लॉगरहेड्स पर हैं और वे अडिग लगती हैं

आइए अब इस तरह के पेशेवर असहमति से निपटने के तरीके के बारे में मेरे सुझाए गए दिशानिर्देशों या दृष्टिकोणों में से प्रत्येक पर करीब से नज़र डालें।

एआई और टीम-अप मानव काम की चीजें (सौहार्दपूर्ण रूप से या नहीं)

मैं सूची को इस सीधी संभावना के साथ शुरू करता हूं कि एआई और मानव-इन-लूप आपस में पेशेवर असहमति को हल करने में सक्षम हैं। ऐसा लगता है कि शायद दो मनुष्यों, पायलट और कोपिलॉट का उदाहरण इस तरह की परिस्थिति को दर्शाता है। उन्होंने किसी तरह टर्मिनल पर लौटने और अपने अलग रास्ते जाने का संकल्प लिया। यह हो सकता है कि एक एआई प्रणाली और एक मानव एक समाधान दृष्टिकोण का पता लगाने में सक्षम हो जो आम तौर पर दोनों पक्षों के लिए संतोषजनक हो और इस प्रकार मामला संतोषजनक ढंग से समाप्त हो गया हो।

मानव डिफ़ॉल्ट रूप से AI पर हावी रहता है

एआई की स्थापना करते समय, हम एक नियम को प्रोग्राम कर सकते हैं जो कहता है कि जब भी कोई पेशेवर असहमति उत्पन्न होती है, तो मानव-इन-लूप हमेशा प्रबल रहेगा। यह स्पष्ट रूप से कोडित डिफ़ॉल्ट होगा। हम किसी प्रकार के ओवरराइड की अनुमति भी दे सकते हैं, बस मामले में, हालांकि स्थायी नियम यह होगा कि मानव प्रबल होता है।

एआई डिफ़ॉल्ट रूप से मानव पर हावी है

एआई की स्थापना करते समय, हम एक नियम को प्रोग्राम कर सकते हैं जो कहता है कि एआई हमेशा मानव-इन-द-लूप पर प्रबल होगा जब भी कोई पेशेवर असहमति उत्पन्न होगी। यह स्पष्ट रूप से कोडित डिफ़ॉल्ट है। हम कुछ प्रकार के ओवरराइड की भी अनुमति दे सकते हैं, बस मामले में, हालांकि स्थायी नियम यह होगा कि एआई प्रबल होता है।

कुछ अन्य पूर्व निर्धारित निश्चित संकल्प, डिफ़ॉल्ट रूप से प्रबल होते हैं

एआई की स्थापना करते समय, हम एक नियम को प्रोग्राम कर सकते हैं जो कहता है कि जब भी मानव-इन-लूप के साथ कोई पेशेवर असहमति उत्पन्न होती है तो कुछ अन्य पूर्व निर्धारित निश्चित संकल्प प्रबल होंगे। मानव-में-लूप डिफ़ॉल्ट रूप से प्रबल नहीं होता है। एआई डिफ़ॉल्ट रूप से प्रबल नहीं होता है। कुछ और पूर्वनिर्धारित संकल्प है। उदाहरण के लिए, शायद एक सिक्का उछाला जाता है जिसका उपयोग यह तय करने के लिए किया जाएगा कि दोनों में से कौन सा पक्ष लेने का सही मार्ग माना जाता है। यह स्पष्ट रूप से बल्कि मनमाना प्रतीत होगा; इस प्रकार एक और उदाहरण दृष्टिकोण यह होगा कि एक विशेष नियम दो पक्षों से इनपुट के आधार पर एक मूल्य की गणना करता है और एक टाईब्रेकर के रूप में परिणाम पर आता है।

तृतीय-पक्ष मानव लूप-इन है और पार्टियों पर उनका संकेत प्रबल होता है

एक पेशेवर असहमति पर, एक नियम यह हो सकता है कि असहमति को हल करने के बारे में निर्णय लेने के लिए एक तीसरे पक्ष को बुलाया जाता है और सेटिंग में लूप किया जाता है। एआई को तीसरे पक्ष के मानव जो भी निर्णय लेता है उसे स्थगित करने के लिए प्रोग्राम किया गया है। मानव-इन-लूप में पहले से ही मानव को निर्देश दिया गया है कि यदि ऐसी स्थिति उत्पन्न होती है, तो उन्हें भी तीसरे पक्ष के मानव को स्थगित करना होगा। एक तरफ के रूप में, आप अनुमान लगा सकते हैं कि मानव-इन-द-लूप में तीसरे पक्ष के मानव जो भी निर्णय लेता है, उसे स्वीकार करने पर गुस्सा हो सकता है यदि निर्णय मानव-इन-द-लूप मुद्रा से असहमत है।

तृतीय-पक्ष AI लूप-इन है और इसका संकेत पार्टियों पर हावी है

एक पेशेवर असहमति पर, एक नियम यह हो सकता है कि असहमति को हल करने के बारे में निर्णय लेने के लिए एक अलग एआई सिस्टम वाली एक तीसरी पार्टी को लागू किया जाता है और सेटिंग में लूप किया जाता है। मूल AI को तृतीय-पक्ष AI जो भी निर्णय लेता है उसे स्थगित करने के लिए प्रोग्राम किया गया है। मानव-में-लूप में पहले से ही निर्देश दिया गया है कि यदि ऐसी स्थिति उत्पन्न होती है, तो उन्हें भी तृतीय-पक्ष एआई को स्थगित करना होगा। एक तरफ के रूप में, आप यह अनुमान लगा सकते हैं कि मानव-इन-द-लूप तीसरे पक्ष के एआई द्वारा तय किए गए निर्णय पर मानव-इन-द-लूप मुद्रा से असहमत होने पर नाराज हो सकता है।

तीसरे पक्ष का मानव मौजूदा मानव की जगह लेता है, चीजें नए सिरे से आगे बढ़ती हैं

एक पेशेवर असहमति पर, मानव-में-लूप को एक तीसरे पक्ष द्वारा प्रतिस्थापित किया जाता है जो एक मानव है और जो अब से मानव-में-लूप बन जाता है। वह मानव जो कार्य के लिए मूल मानव-इन-लूप था, उसे अब कार्य का हिस्सा नहीं माना जाता है। यह एक खुला पहलू है कि अन्यथा अब बदले हुए मानव-इन-लूप के साथ क्या होता है, लेकिन हम कह रहे हैं कि निश्चित रूप से कार्य कार्य में उनकी कोई चल रही भूमिका नहीं है।

तृतीय-पक्ष AI मौजूदा AI को बदल देता है, चीजें नए सिरे से आगे बढ़ती हैं

एक पेशेवर असहमति पर, एआई को तीसरे पक्ष के एआई द्वारा बदल दिया जाता है और यह अब से काम के लिए इस्तेमाल किया जाने वाला एआई बन जाता है। मूल रूप से कार्य के लिए उपयोग किए जा रहे एआई को अब कार्य का हिस्सा नहीं माना जाता है। यह एक खुला पहलू है कि अन्यथा अब प्रतिस्थापित एआई के साथ क्या होता है, लेकिन हम कह रहे हैं कि निश्चित रूप से एआई की अब कार्य कार्य में कोई भूमिका नहीं है।

तृतीय-पक्ष मानव मौजूदा AI की जगह लेता है, चीजें नए सिरे से आगे बढ़ती हैं (अब मानव-से-मानव)

एक पेशेवर असहमति पर, एआई को तीसरे पक्ष के मानव द्वारा प्रतिस्थापित किया जाता है, जिसके लिए वह व्यक्ति अब सह-टीम वाली पार्टी बन जाता है जिसका उपयोग कार्य कार्य के लिए किया जाएगा। मूल रूप से कार्य के लिए उपयोग किए जा रहे एआई को अब कार्य का हिस्सा नहीं माना जाता है। यह एक खुला पहलू है कि अन्यथा अब प्रतिस्थापित एआई के साथ क्या होता है, लेकिन हम कह रहे हैं कि निश्चित रूप से एआई की अब कार्य कार्य में कोई भूमिका नहीं है। संक्षेप में, यह अब दो-पक्षीय मानव-से-मानव निष्पादित कार्य बन गया है।

तृतीय-पक्ष AI मौजूदा मानव की जगह लेता है, चीजें नए सिरे से आगे बढ़ती हैं (अब AI-to-AI)

एक पेशेवर असहमति पर, मानव-इन-द-लूप को एक तृतीय-पक्ष AI द्वारा बदल दिया जाता है और यह AI पूर्ववर्ती मानव-इन-लूप के लिए अब से भरने वाला बन जाता है। वह मानव जो कार्य के लिए मूल मानव-इन-लूप था, उसे अब कार्य का हिस्सा नहीं माना जाता है। यह एक खुला पहलू है कि अन्यथा अब बदले हुए मानव-इन-लूप के साथ क्या होता है, लेकिन हम कह रहे हैं कि निश्चित रूप से कार्य कार्य में उनकी कोई चल रही भूमिका नहीं है। संक्षेप में, यह अब कार्य करने के लिए दो-पक्षीय AI-to-AI बन जाता है।

अन्य

एक पेशेवर असहमति से निपटने के लिए अन्य विविधताएं तैयार की जा सकती हैं, लेकिन हमने यहां कुछ मुख्य बातों को शामिल किया है।

हम यह कैसे तय कर सकते हैं कि इनमें से कौन सा दृष्टिकोण किसी दिए गए स्थिति के लिए सही होगा?

इस तरह का चुनाव करने में कई तरह के मुद्दे जाते हैं। तकनीकी विचार हैं। व्यावसायिक विचार हैं। कानूनी और नैतिक विचार हैं।

कुछ हद तक, यही कारण है कि एआई एथिक्स और एथिकल एआई इतना महत्वपूर्ण विषय है। एआई नैतिकता के नियम हमें सतर्क रहने के लिए प्रेरित करते हैं। एआई प्रौद्योगिकीविद कभी-कभी प्रौद्योगिकी, विशेष रूप से उच्च तकनीक के अनुकूलन में व्यस्त हो सकते हैं। वे जरूरी नहीं कि बड़े सामाजिक प्रभावों पर विचार कर रहे हों। एआई एथिक्स मानसिकता रखने और एआई विकास और क्षेत्ररक्षण के लिए एकीकृत रूप से ऐसा करना उचित एआई के उत्पादन के लिए महत्वपूर्ण है, जिसमें (शायद आश्चर्यजनक रूप से या विडंबना यह है) कि एआई एथिक्स को फर्मों द्वारा कैसे अपनाया जाता है, इसका आकलन शामिल है।

सामान्य रूप से एआई नैतिकता के नियमों को लागू करने के अलावा, एक समान प्रश्न है कि क्या हमारे पास एआई के विभिन्न उपयोगों को नियंत्रित करने के लिए कानून होना चाहिए। नए कानूनों को संघीय, राज्य और स्थानीय स्तरों पर बांधा जा रहा है जो इस बात से संबंधित हैं कि एआई को कैसे तैयार किया जाना चाहिए। ऐसे कानूनों का मसौदा तैयार करने और उन्हें अधिनियमित करने का प्रयास धीरे-धीरे किया जाता है। एआई एथिक्स बहुत कम से कम एक सुविचारित स्टॉपगैप के रूप में कार्य करता है, और लगभग निश्चित रूप से कुछ हद तक सीधे उन नए कानूनों में शामिल किया जाएगा।

ध्यान रखें कि कुछ लोग दृढ़ता से तर्क देते हैं कि हमें एआई को कवर करने वाले नए कानूनों की आवश्यकता नहीं है और हमारे मौजूदा कानून पर्याप्त हैं। वास्तव में, उन्होंने चेतावनी दी है कि यदि हम इनमें से कुछ एआई कानूनों को लागू करते हैं, तो हम एआई में प्रगति पर रोक लगाकर सोने के हंस को मार देंगे जो कि अत्यधिक सामाजिक लाभ प्रदान करते हैं।

इस महत्वपूर्ण चर्चा के इस मोड़ पर, मैं शर्त लगा सकता हूँ कि आप कुछ उदाहरणात्मक उदाहरणों के इच्छुक हैं जो इस विषय को प्रदर्शित कर सकते हैं। उदाहरणों का एक विशेष और निश्चित रूप से लोकप्रिय सेट है जो मेरे दिल के करीब है। आप देखते हैं, एआई पर एक विशेषज्ञ के रूप में मेरी क्षमता में, जिसमें नैतिक और कानूनी प्रभाव शामिल हैं, मुझे अक्सर ऐसे यथार्थवादी उदाहरणों की पहचान करने के लिए कहा जाता है जो एआई एथिक्स दुविधाओं को प्रदर्शित करते हैं ताकि विषय की कुछ हद तक सैद्धांतिक प्रकृति को और अधिक आसानी से समझा जा सके। एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन सबसे अधिक विकसित क्षेत्रों में से एक है जो इस नैतिक एआई विवाद को स्पष्ट रूप से प्रस्तुत करता है। यह विषय पर पर्याप्त चर्चा के लिए एक उपयोगी उपयोग के मामले या उदाहरण के रूप में काम करेगा।

यहाँ एक उल्लेखनीय प्रश्न है जो विचार करने योग्य है: क्या एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन एआई-और-मानव असहमति के प्रस्तावों के बारे में कुछ भी बताता है, और यदि हां, तो यह क्या प्रदर्शित करता है?

मुझे प्रश्न को अनपैक करने के लिए एक क्षण का समय दें।

सबसे पहले, ध्यान दें कि एक सच्ची सेल्फ-ड्राइविंग कार में कोई मानव चालक शामिल नहीं है। ध्यान रखें कि असली सेल्फ-ड्राइविंग कारें AI ड्राइविंग सिस्टम से चलती हैं। पहिए पर मानव चालक की आवश्यकता नहीं है, न ही मानव के लिए वाहन चलाने का प्रावधान है। स्वायत्त वाहनों (एवी) और विशेष रूप से सेल्फ-ड्राइविंग कारों के मेरे व्यापक और चल रहे कवरेज के लिए, देखें यहाँ लिंक.

मैं और स्पष्ट करना चाहता हूं कि जब मैं सच्ची सेल्फ-ड्राइविंग कारों का उल्लेख करता हूं तो इसका क्या मतलब होता है।

आत्म ड्राइविंग कारों के स्तर को समझना

स्पष्टीकरण के रूप में, सच्ची आत्म-ड्राइविंग कार वे हैं जहां एआई पूरी तरह से अपने दम पर कार चलाता है और ड्राइविंग कार्य के दौरान कोई मानव सहायता नहीं है।

इन चालक रहित वाहनों को स्तर 4 और स्तर 5 माना जाता है (मेरी व्याख्या देखें) इस लिंक यहाँ), जबकि एक कार जिसमें ड्राइविंग प्रयास को सह-साझा करने के लिए मानव चालक की आवश्यकता होती है, आमतौर पर स्तर 2 या स्तर 3 पर विचार किया जाता है। ड्राइविंग कार्य को सह-साझा करने वाली कारों को अर्ध-स्वायत्त होने के रूप में वर्णित किया जाता है, और आमतौर पर इसमें कई प्रकार के होते हैं स्वचालित ऐड-ऑन जिन्हें ADAS (उन्नत ड्राइवर-सहायता प्रणाली) कहा जाता है।

लेवल 5 पर अभी तक एक सच्ची सेल्फ-ड्राइविंग कार नहीं है, और हम अभी तक यह भी नहीं जानते हैं कि क्या यह हासिल करना संभव होगा, और न ही वहां पहुंचने में कितना समय लगेगा।

इस बीच, लेवल 4 के प्रयास धीरे-धीरे बहुत ही संकीर्ण और चयनात्मक सार्वजनिक सड़क मार्ग के परीक्षणों से गुजरते हुए कुछ कर्षण प्राप्त करने की कोशिश कर रहे हैं, हालांकि इस बात पर विवाद है कि क्या इस परीक्षण को प्रति अनुमति दी जानी चाहिए (हम सभी जीवन-या-मृत्यु गिनी सूअर एक प्रयोग में हैं हमारे राजमार्गों और मार्गों पर हो रही है, कुछ दावेदार, मेरे कवरेज को देखते हैं इस लिंक यहाँ).

चूंकि अर्ध-स्वायत्त कारों के लिए एक मानव चालक की आवश्यकता होती है, इसलिए उन प्रकार की कारों को अपनाना पारंपरिक वाहनों को चलाने की तुलना में अलग नहीं होगा, इसलिए इस विषय पर उनके बारे में कवर करने के लिए प्रति से ज्यादा कुछ नया नहीं है (हालांकि, जैसा कि आप देखेंगे एक पल में, अगले अंक आम तौर पर लागू होते हैं)।

अर्ध-स्वायत्त कारों के लिए, यह महत्वपूर्ण है कि जनता को परेशान करने वाले पहलू के बारे में पूर्वाभास करने की आवश्यकता है, जो हाल ही में उत्पन्न हुई है, अर्थात् उन मानव चालकों के बावजूद जो खुद को स्तर 2 या स्तर 3 कार के सोते हुए वीडियो पोस्ट करते रहते हैं , हम सभी को यह मानने में गुमराह होने से बचने की आवश्यकता है कि चालक अर्ध-स्वायत्त कार चलाते समय ड्राइविंग कार्य से अपना ध्यान हटा सकता है।

आप वाहन के ड्राइविंग क्रियाओं के लिए जिम्मेदार पक्ष हैं, भले ही स्वचालन को स्तर 2 या स्तर 3 में कितना उछाला जाए।

सेल्फ-ड्राइविंग कार और एआई-बनाम-मानव असहमति

लेवल 4 और लेवल 5 के लिए सच सेल्फ-ड्राइविंग वाहन, ड्राइविंग कार्य में शामिल मानव चालक नहीं होंगे।

सभी रहने वाले यात्री होंगे।

एआई ड्राइविंग कर रहा है।

तुरंत चर्चा करने का एक पहलू इस तथ्य पर जोर देता है कि आज के एआई ड्राइविंग सिस्टम में शामिल एआई संवेदनशील नहीं है। दूसरे शब्दों में, AI पूरी तरह से कंप्यूटर-आधारित प्रोग्रामिंग और एल्गोरिदम का एक सामूहिक है, और सबसे अधिक आश्वस्त रूप से उसी तरीके से तर्क करने में सक्षम नहीं है जो मनुष्य कर सकते हैं।

एआई के संवेदनशील नहीं होने के बारे में यह अतिरिक्त जोर क्यों दिया जा रहा है?

क्योंकि मैं यह रेखांकित करना चाहता हूं कि जब एआई ड्राइविंग सिस्टम की भूमिका पर चर्चा हो रही है, तो मैं एआई को मानवीय गुणों का वर्णन नहीं कर रहा हूं। कृपया ध्यान रखें कि इन दिनों एंथ्रोपोमोर्फिफाई एआई के लिए चल रही और खतरनाक प्रवृत्ति है। संक्षेप में, लोग आज के एआई के लिए मानव जैसी भावना प्रदान कर रहे हैं, इसके बावजूद कि इस तरह का एआई अभी तक मौजूद नहीं है।

उस स्पष्टीकरण के साथ, आप कल्पना कर सकते हैं कि एआई ड्राइविंग सिस्टम ड्राइविंग के पहलुओं के बारे में मूल रूप से किसी तरह "जान" नहीं पाएगा। ड्राइविंग और इसके लिए जरूरी सभी चीजों को सेल्फ-ड्राइविंग कार के हार्डवेयर और सॉफ्टवेयर के हिस्से के रूप में प्रोग्राम करना होगा।

आइए इस विषय पर खेलने के लिए आने वाले पहलुओं के बारे में जानें।

सबसे पहले, यह महसूस करना महत्वपूर्ण है कि सभी AI सेल्फ-ड्राइविंग कारें समान नहीं होती हैं। प्रत्येक ऑटोमेकर और सेल्फ-ड्राइविंग टेक फर्म सेल्फ-ड्राइविंग कारों को तैयार करने के लिए अपना दृष्टिकोण अपना रही है। जैसे, एआई ड्राइविंग सिस्टम क्या करेगा या नहीं, इस बारे में व्यापक बयान देना मुश्किल है।

इसके अलावा, जब भी यह कहा जाता है कि एआई ड्राइविंग सिस्टम कुछ खास काम नहीं करता है, तो बाद में, यह डेवलपर्स द्वारा आगे निकल सकता है जो वास्तव में कंप्यूटर को उसी काम करने के लिए प्रोग्राम करता है। कदम दर कदम, एआई ड्राइविंग सिस्टम में धीरे-धीरे सुधार और विस्तार किया जा रहा है। एक मौजूदा सीमा आज भविष्य के पुनरावृत्ति या सिस्टम के संस्करण में मौजूद नहीं हो सकती है।

मुझे उम्मीद है कि जो मैं संबंधित करने जा रहा हूं उसे रेखांकित करने के लिए पर्याप्त चेतावनी प्रदान करता है।

पूरी तरह से स्वायत्त वाहनों के लिए मानव और एआई के बीच पेशेवर असहमति का कोई मौका नहीं हो सकता है क्योंकि इस संभावना के कारण कि शुरू करने के लिए कोई मानव-इन-लूप नहीं है। आज के कई सेल्फ-ड्राइविंग कार निर्माताओं की आकांक्षा मानव चालक को ड्राइविंग कार्य से पूरी तरह से हटाने की है। वाहन में मानव-सुलभ ड्राइविंग नियंत्रण भी नहीं होगा। उस स्थिति में, यदि कोई मानव चालक मौजूद है, तो वह ड्राइविंग कार्य में भाग नहीं ले पाएगा क्योंकि उनके पास किसी भी ड्राइविंग नियंत्रण तक पहुंच नहीं है।

कुछ पूरी तरह से स्वायत्त वाहनों के लिए, कुछ डिज़ाइन अभी भी मानव को इन-द-लूप होने की अनुमति देते हैं, हालांकि मानव को ड्राइविंग प्रक्रिया में उपलब्ध होने या भाग लेने की आवश्यकता नहीं है। इस प्रकार, एक व्यक्ति ड्राइविंग में भाग ले सकता है, यदि वह ऐसा करना चाहता है। हालांकि एआई किसी भी ड्राइविंग कार्य को करने के लिए मानव पर निर्भर नहीं है।

अर्ध-स्वायत्त वाहनों के मामले में, मानव चालक और एआई के बीच एक हाथ का रिश्ता होता है। मानव चालक ड्राइविंग नियंत्रण को पूरी तरह से अपने हाथ में ले सकता है और अनिवार्य रूप से एआई को ड्राइविंग में भाग लेने से रोक सकता है। यदि मानव चालक एआई को ड्राइविंग भूमिका में बहाल करना चाहता है, तो वे ऐसा कर सकते हैं, हालांकि यह कभी-कभी मानव को ड्राइविंग नियंत्रण छोड़ने के लिए मजबूर करता है।

अर्ध-स्वायत्त संचालन का एक अन्य रूप मानव चालक और एआई को एक साथ मिलकर काम करने के लिए मजबूर करेगा। AI चला रहा है और इंसान चला रहा है। वे एक साथ गाड़ी चला रहे हैं। एआई मानव के लिए स्थगित हो सकता है। मानव एआई को टाल सकता है।

कुछ मोड़ पर, एआई ड्राइविंग सिस्टम और लूप में मानव चालक हाथ में ड्राइविंग कार्य के रूप में "पेशेवर असहमति" के मोड़ पर पहुंच सकता है।

यह स्पष्ट करने के लिए कि पेशेवर असहमति से निपटने के लिए उपरोक्त कुछ नियमों को कैसे लागू करना चुनौतीपूर्ण हो सकता है, इस मामले में प्रवेश करने के लिए किसी तीसरे पक्ष के मानव को आमंत्रित करने और अनसुलझे मुद्दे को हल करने का निर्णय लेने के उदाहरण पर विचार करें।

मान लीजिए कि एक ऑटोमेकर या सेल्फ-ड्राइविंग टेक फर्म ने दूरस्थ मानव ऑपरेटरों के लिए अपने बेड़े के भीतर वाहनों के ड्राइविंग नियंत्रण तक पहुंच की व्यवस्था की है। मानव संचालक किसी दूर कार्यालय या सदृश सेटिंग में बैठा है। एक कंप्यूटर सिस्टम के माध्यम से, वे सेल्फ-ड्राइविंग कार पर लोड किए गए कैमरों और अन्य सेंसर उपकरणों तक पहुंच के माध्यम से ड्राइविंग दृश्य देखने में सक्षम होते हैं। उनके लिए, यह लगभग एक ऑनलाइन वीडियो गेम खेलने जैसा है, हालांकि, निश्चित रूप से, वास्तविक जीवन की परिस्थितियों के संभावित गंभीर परिणाम होते हैं।

एक एआई सिस्टम और कार के अंदर एक मानव चालक एक अर्ध-स्वायत्त वाहन को एक लंबे राजमार्ग के नीचे चला रहा है। अचानक, AI एक खाई में गिरना चाहता है। मानव चालक ऐसा नहीं करना चाहता। ड्राइविंग कंट्रोल को लेकर दोनों में मारपीट हो रही है।

इसका समाधान कैसे होगा?

हम शायद पहले से ही स्थापित कर सकते थे कि इंसान हमेशा जीतता है। हालांकि मान लें कि हमने ऐसा नहीं करने का विकल्प चुना है।

हम पहले से ही स्थापित कर सकते थे कि एआई हमेशा जीतता है। मान लें कि हमने ऐसा नहीं करने का विकल्प चुना है। कुल मिलाकर, हमने इनमें से किसी भी नियम को नहीं अपनाया, सिवाय इसके कि हमने किसी तीसरे पक्ष के मानव को हस्तक्षेप करने और किसी भी वास्तविक प्रकृति की पेशेवर असहमति को हल करने की अनुमति देने का निर्णय लिया।

इस उपयोग के मामले में, एआई और पहिया पर मानव चालक ड्राइविंग नियंत्रण के लिए लड़ रहे हैं। यह मान लें कि दूरस्थ मानव ऑपरेटर (हमारे तीसरे पक्ष के मानव) को बता दिया गया है। दूरस्थ मानव ऑपरेटर जांच करता है कि क्या हो रहा है और खाई से दूर जाने का फैसला करता है, प्रतीत होता है कि एआई क्या करने की कोशिश कर रहा था। उसी समय, मान लीजिए कि रिमोट ह्यूमन ऑपरेटर आने वाले ट्रैफ़िक में चला जाता है, जो शायद न तो एआई और न ही कार के अंदर का मानव चालक करना चाहता था।

मुद्दा यह है कि जिस तरह से इस नियम को लागू किया गया है, वह यह है कि थर्ड-पार्टी ह्यूमन ऑपरेटर एआई और ह्यूमन-इन-द-लूप दोनों को पूरी तरह से ओवरराइड करने में सक्षम है। क्या यह एक अच्छा परिणाम देने वाला है, निश्चित रूप से आश्वस्त नहीं है।

इन मामलों पर कुछ अतिरिक्त अंतर्दृष्टि को उजागर करने के लिए मैं इस उदाहरण का उपयोग करूंगा।

आप यह बेशर्म धारणा नहीं बना सकते कि सिर्फ इसलिए कि इन नियमों में से एक को लागू कर दिया गया है, हल की गई असहमति का परिणाम आवश्यक रूप से एक अच्छे परिणाम की गारंटी है। यह नहीं हो सकता है। हमेशा सही प्रकार का कोई नियम नहीं है जिसे चुना जा सके।

इसके बाद, इनमें से कुछ नियम व्यावहारिक रूप से लागू करने योग्य नहीं हो सकते हैं।

जब एआई और मानव चालक ड्राइविंग नियंत्रणों पर विवाद कर रहे हों, तब दूरस्थ मानव ऑपरेटर के हस्तक्षेप के उदाहरण पर विचार करें। दूरस्थ मानव ऑपरेटर को यह पता लगाने में कई सेकंड का समय लग सकता है कि क्या हो रहा है। तब तक, वाहन पहले ही खाई में गिर चुका होगा या कोई अन्य प्रतिकूल परिणाम हो सकता था। इसके अलावा, मान लें कि वाहन का स्थान रिमोट एक्सेस को रोकता है जैसे कि किसी ऐसे स्थान पर होना जहां कोई नेटवर्क इलेक्ट्रॉनिक कनेक्टिविटी नहीं है। या हो सकता है कि उस विशेष क्षण में वाहन की नेटवर्किंग सुविधाएँ काम नहीं कर रही हों।

जैसा कि आप देख सकते हैं, नियम कागज पर बांका लग सकता है, हालांकि नियम को वास्तविक उपयोग में लाना एक बहुत ही कठिन या अत्यधिक आकस्मिक दृष्टिकोण हो सकता है। ऑटोनॉमस वाहनों और सेल्फ-ड्राइविंग कारों के रिमोट ऑपरेटर पर मेरी क्रिटिकल-आई कवरेज देखें यहाँ लिंक.

मैं एक अन्य संबंधित विषय को संक्षेप में कवर करना चाहता हूं जिसे मैं आगामी विश्लेषण में अधिक गहराई से कवर करूंगा।

स्वायत्त वाहनों और अर्ध-स्वायत्त कारों के बारे में बढ़ती चिंताओं में से एक तथाकथित है हॉट पोटैटो सिंड्रोम.

यहाँ सौदा है।

एआई ड्राइविंग सिस्टम और इंसान सह-ड्राइविंग कर रहे हैं। भयंकर संकट खड़ा हो जाता है। एआई को ड्राइविंग कार्य से बाहर निकलने और एक भयानक क्षण होने पर चीजों को मानव को सौंपने के लिए प्रोग्राम किया गया है। यह शायद "समझदार" लगता है कि हम किसी भी संभावित पेशेवर असहमति में मनुष्य के डिफ़ॉल्ट "विजेता" के बारे में नियम लागू कर रहे हैं।

लेकिन एआई को छोड़ना अधिक नापाक या कपटी उद्देश्यों के लिए हो सकता है। यह हो सकता है कि ऑटोमेकर या सेल्फ-ड्राइविंग टेक फर्म नहीं चाहती कि कार दुर्घटना होने पर उनके एआई को "पार्टी एट फॉल्ट" माना जाए। ऐसा प्रतीत होता है कि इस तरह से पिन किए जाने से बचने के लिए, एआई अचानक मानव को नियंत्रण सौंप देता है। वोइला, मानव अब वाहन के लिए पूरी तरह से जिम्मेदार है।

किकर यह है कि मान लीजिए कि एआई इस हैंडऑफ़ को करता है मान लें कि दुर्घटना होने से पहले एक सेकंड शेष है।

क्या दुर्घटना को टालने के लिए मानव के पास वास्तव में कोई उपलब्ध समय होगा?

शायद नहीं।

मान लीजिए कि AI कुछ मिलीसेकंड या नैनोसेकंड के साथ हैंडऑफ़ करता है। मैं यह कहने की हिम्मत करता हूं कि दुर्घटना को टालने के लिए मानव के पास कुछ भी करने की अनिवार्य रूप से शून्य संभावना है।

ऑटोमेकर या सेल्फ-ड्राइविंग कार फर्म के दृष्टिकोण से, वे कार्य करने की कोशिश कर सकते हैं जैसे कि ऐसी कार दुर्घटना होने पर उनके हाथ साफ थे। कार एक इंसान चला रहा था। एआई कार नहीं चला रहा था। केवल "तार्किक" निष्कर्ष यह प्रतीत होता है कि मानव को गलती पर होना चाहिए और एआई पूरी तरह से दोषरहित होना चाहिए।

यह एक क्रॉक है।

मैं आगामी कॉलम में इस पर और अधिक गहराई से चर्चा करूंगा।

निष्कर्ष

व्यावसायिक मतभेद होने के योग बन रहे हैं।

किसी भी जटिल कार्य की कल्पना करना कठिन है, जिसमें दो पक्ष मिलकर कार्य कर रहे हों और जिसके लिए कभी भी कोई पेशेवर असहमति न हो। यह एक फंतासी भूमि या कम से कम एक भव्य दुर्लभता की तरह लगता है।

आज, हमारे पास पेशेवर असहमति के बहुत सारे मानव-से-मानव उदाहरण हैं, जिनके लिए दैनिक आधार पर संकल्प शांतिपूर्वक और समझदारी से किसी न किसी तरह से निकाले जाते हैं। वास्तव में, हम कई बार पेशेवर असहमति को बढ़ावा देने और सामने लाने के लिए जानबूझकर परिस्थितियों को स्थापित करते हैं। आप तर्क दे सकते हैं कि यह प्रसिद्ध ज्ञान को प्रदर्शित करता है कि कभी-कभी दो सिर एक से बेहतर होते हैं।

जैसे-जैसे एआई अधिक प्रचलित होता जाएगा, हमारे पास बहुत से एआई-टू-ह्यूमन या ह्यूमन-टू-एआई टू-पार्टी टास्क परफॉर्मर होंगे और होने जा रहे हैं पेशेवर असहमति जो घटित होगा। आलसी दृष्टिकोण हमेशा मानव को टालना है। यह सबसे उपयुक्त तरीका नहीं हो सकता है। एआई बेहतर विकल्प हो सकता है। या अन्य उपर्युक्त नियमों में से एक एक बेहतर दृष्टिकोण हो सकता है।

वहाँ वह ऋषि पंक्ति है जिसे अक्सर दोहराया जाता है कि हम सभी को आम तौर पर असहमत होने के लिए सहमत होना चाहिए, हालांकि जब यह तार पर आता है, तो कभी-कभी असहमति को स्पष्ट रूप से हल करना पड़ता है अन्यथा मामला अनकही आपदा का कारण बनेगा। हम सिर्फ एक असहमति को बेल पर खत्म नहीं होने दे सकते। समय सार का हो सकता है और जीवन दांव पर लग सकता है।

असहमति को हल करने के लिए कुछ विवेकपूर्ण साधनों के लिए एक स्पष्ट आवश्यकता है, भले ही यह आवश्यक रूप से सहमत न हो, जिसमें एआई और मानव-इन-द-लूप आंख से आंख नहीं देख रहे हैं और न ही बाइट-टू-बाइट।

मुझे विश्वास है कि आप उस पूरी तरह से सहमत विवाद से असहमत नहीं होंगे।

स्रोत: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- पायलट और सह पायलट असहमत