नैतिक एआई महत्वाकांक्षी रूप से एआई को अपने आप से नैतिक व्यवहार सीखने की उम्मीद करता है, जैसे कि स्वायत्त सेल्फ-ड्राइविंग कारों में एआई के मामले में।

अरस्तू ने प्रसिद्ध रूप से कहा है कि हृदय को शिक्षित किए बिना मन को शिक्षित करना कोई शिक्षा नहीं है।

आप उस अंतर्दृष्टिपूर्ण टिप्पणी की व्याख्या यह सुझाव देने के लिए कर सकते हैं कि नैतिकता और नैतिक व्यवहार के बारे में सीखना मानव जाति के लिए बेहद महत्वपूर्ण है। क्लासिक प्रकृति बनाम पोषण बहस में, किसी को यह पूछना चाहिए कि हमारे कितने नैतिक रीति-रिवाज सहज रूप से देशी हैं जबकि हमारे जीवन के दिनों में कितना सीखा जाता है। टॉडलर्स साथी मनुष्यों के प्रति चौकस हैं और संभवतः वे जो देखते और सुनते हैं, उसके आधार पर अपनी नैतिक नींव को चमकाते हैं। किशोरों के बारे में भी यही कहा जा सकता है। खुले विचारों वाले वयस्कों के लिए, वे भी रोज़मर्रा की दुनिया का अनुभव करने के परिणामस्वरूप अपनी नैतिक सोच में समायोजन और प्रगति करना जारी रखेंगे।

बेशक, किसी को नैतिकता के बारे में स्पष्ट रूप से पढ़ाना भी पाठ्यक्रम के लिए समान है। लोग इस विषय पर कक्षाओं में भाग लेने के माध्यम से या शायद उनकी रुचि की घटनाओं और प्रथाओं में जाकर नैतिक तरीकों के बारे में जानने के लिए बाध्य हैं। नैतिक मूल्यों को स्पष्ट रूप से पहचाना जा सकता है और उन्हें नैतिकता की अपनी संरचना तैयार करने में दूसरों की सहायता करने के साधन के रूप में साझा किया जा सकता है। इसके अलावा, नैतिकता को सूक्ष्म रूप से कहानियों या अन्य निर्देशात्मक तरीकों में छिपाया जा सकता है जो अंततः यह संदेश देते हैं कि नैतिक व्यवहार में क्या शामिल है।

इस तरह मनुष्य नैतिकता को आत्मसात करता प्रतीत होता है।

आर्टिफिशियल इंटेलिजेंस (एआई) के बारे में क्या?

मुझे एहसास है कि ऐसा सवाल अजीब लग सकता है। हम निश्चित रूप से उम्मीद करते हैं कि मनुष्य नैतिकता को शामिल करें और नैतिक संहिता के कुछ अंश के साथ जीवन में चलें। यह एक सरल और स्पष्ट तथ्य है। दूसरी ओर, एक मशीन या कंप्यूटर संदर्भ के उसी फ्रेम के भीतर फिट नहीं लगता है। आपकी आंत प्रतिक्रिया यह हो सकती है कि एआई को नैतिकता और नैतिक संहिताओं का अवतार मानने के लिए यह दूर की कौड़ी या विचित्र है।

एआई के बारे में सबसे अच्छा जो हम करने में सक्षम होंगे, वह यह है कि इसे तैयार किया जाए ताकि यह नैतिक व्यवहार से विचलित न हो। एआई डेवलपर्स और क्षेत्ररक्षण एआई को यह सुनिश्चित करने के लिए जिम्मेदार ठहराया जाना चाहिए कि एआई को डिज़ाइन किया गया है और जब लागू किया गया है तो पहले से ही नैतिक नियमों के अनुरूप है। गेट के बाहर, इसलिए बोलने के लिए, एआई को पहले से ही प्राचीन होना चाहिए और पूरी तरह से नैतिक रूप से उचित युक्ति के रूप में जाने के लिए तैयार होना चाहिए।

आप निश्चित रूप से यह सोचने में सही होंगे कि एआई सिस्टम को वास्तव में पहले से ही पूरी तरह से नैतिक आधार पर फिट करने के लिए तैयार किया जाना चाहिए। एआई सिस्टम की नवीनतम लहर पहली बार जारी होने पर समाज काफी उत्साहित था और यह प्रदर्शित करने के लिए प्रकट हुआ कि हम एक युग में थे एआई फॉर गुड. एआई दुनिया की कई सबसे चुनौतीपूर्ण समस्याओं को हल करने में मदद करेगा। संज्ञानात्मक जैसी सुविधाओं के साथ मानवीय क्षमताओं को पूरक करने के लिए प्रौद्योगिकी में प्रगति का उपयोग किया जा रहा था, हालांकि मुझे इस बात पर जोर देना चाहिए कि हमारे पास अभी तक कोई संवेदनशील एआई नहीं है और हम नहीं जानते कि संवेदनशील एआई प्राप्त किया जाएगा या नहीं।

एआई को दुनिया में लाने के लिए पेल-मेल रश के साथ समस्या ने धीरे-धीरे एआई के बदसूरत अंडरबेली को प्रकट किया है जिसे जाना जाता है एआई फॉर बैड. एआई सिस्टम के बारे में बहुत सारी सुर्खियां हैं जो एल्गोरिथम निर्णय लेने (एडीएम) का उपयोग करते हैं जो पूर्वाग्रहों और असमानताओं से भरा है। इसके शीर्ष पर, अधिकांश समकालीन एआई पारदर्शिता की कमी से ग्रस्त है, कम्प्यूटेशनल निर्णयों की व्याख्या करने के मामले में अकथनीय हो जाता है, अक्सर निष्पक्षता की कमी प्रदर्शित करता है, और कुछ को एआई पर उंगलियों को इंगित करके अपनी मानवीय जवाबदेही को मोड़ने की अनुमति देता है।

मैं अपने लेखन में व्यापक रूप से एथिकल एआई और एआई की नैतिकता को कवर कर रहा हूं, जिसमें शामिल हैं यहाँ लिंक और यहाँ लिंक, कुछ लोगों का नाम बताने के लिए।

कैसे हो सकता है एआई फॉर बैड अगर हम एक कथित निर्माण के रूप में लेते हैं कि अनैतिक कार्यों से बचने के लिए एआई को शुरू से ही तैयार किया जाना चाहिए?

जवाब कई गुना है।

सबसे पहले, कई एआई डेवलपर्स और एआई क्षेत्ररक्षण करने वाली कंपनियां नैतिक सीमाओं के भीतर रहने के लिए अपने एआई को आकार देने के महत्व के बारे में स्वयं अनजान हैं। अवधारणा उनके रडार पर बिल्कुल नहीं है। तेजी से पैसा बनाने का आकर्षण कुछ लोगों को एआई की जो भी जंगली धारणाएँ हैं, उन्हें जानबूझकर आगे बढ़ाने का कारण बनता है। किसी नैतिक सामान का पता लगाने की जरूरत नहीं है। बस एआई बनाएं और इसे चालू करें।

दूसरे, एआई बनाने वाले ऐसे हैं जो नैतिक प्रभाव के बारे में पूरी तरह से जागरूकता को अलंकृत करते हैं, लेकिन वे नैतिक रूप से एआई विचारों को कम या कुछ हद तक अनदेखा करते हैं। तेजी से असफल होने और अक्सर असफल होने का लक्ष्य रखने का एक सामान्य दृष्टिकोण तकनीकी क्लासिक मंत्र है। बस तब तक पुनरावृति करते रहें जब तक कि चीजें उम्मीद से उपयुक्त रूप से व्यवस्थित न हो जाएं। एआई नैतिकता के किसी भी व्यवस्थित और विचारशील समावेश को उन रैपिड-फायर एआई प्रयासों में निचोड़ने की संभावना खेदजनक रूप से कम है। मैं नैतिक एआई की ओर नेतृत्व के सशक्तिकरण की आवश्यकता पर चर्चा करता हूं यहाँ लिंक.

तीसरा, एआई को तैयार करते समय नैतिक रेलिंग का मनोरंजन करने के बारे में बहुत सारी अस्पष्टता मौजूद है। ज़रूर, आजकल कई एआई नैतिकता दिशानिर्देश हैं, मेरा कवरेज यहां देखें यहाँ लिंक, हालांकि इन आसान सैद्धांतिक उपदेशों को किसी दिए गए एआई सिस्टम के निर्माण के लिए विशिष्ट रूप से बदलना मुश्किल है। मैंने संकेत दिया है कि हम धीरे-धीरे एआई बिल्डिंग टूल्स और कार्यप्रणाली का उदय देखेंगे जिसमें एथिकल एआई कोडिंग प्रथाएं शामिल हैं, जो अमूर्त पहलुओं और लौकिक रबर-मीट-द-रोड पहलुओं के बीच की खाई को बंद करने में मदद करती हैं।

चौथा, यहां दिए गए जोर के अनुसार, हम एआई के प्रभावित मामले का पता लगाते हैं कि भले ही शुरू में नैतिक सीमाओं के भीतर बना हो, फिर बाद में उपयोग में आने पर नैतिक रूप से एन्कोडेड मापदंडों से परे हो जाता है।

हमें इसे अनपैक करने की जरूरत है।

आज के अधिकांश AI मशीन लर्निंग (ML) और डीप लर्निंग (DL) का उपयोग करते हैं। ये कम्प्यूटेशनल पैटर्न मिलान तकनीक और प्रौद्योगिकियां हैं। आम तौर पर, विचार यह है कि आप एआई को जो कुछ भी करने में सक्षम होना चाहिए, उसके लिए आप बहुत सारे प्रासंगिक डेटा एकत्र करते हैं, आप उस डेटा को चुने हुए कम्प्यूटेशनल पैटर्न मैचर में फीड करते हैं, और गणितीय रूप से मिलान करने वाला पैटर्न उपयोगी पैटर्न खोजने की कोशिश करता है। ध्यान दें कि इस AI की ओर से कोई भावना नहीं है (जो, फिर से, ऐसी कोई चीज़ अभी तक मौजूद नहीं है)। न ही कोई सामान्य ज्ञान तर्क शामिल है। यह सब गणित और संगणना है।

यह हो सकता है कि एमएल/डीएल में फीड किया गया डेटा पहले से ही पूर्वाग्रहों और असमानताओं से भरा हो। उस स्थिति में, संभावना यह है कि कम्प्यूटेशनल पैटर्न मिलान केवल समान प्रवृत्तियों की नकल करेगा। यदि आप डेटा प्रदान करते हैं जो एक दौड़ को दूसरे पर पसंद करता है या एक लिंग को दूसरे पर पसंद करता है, तो इस बात की एक बड़ी संभावना है कि पैटर्न मिलान उस पर खोजे गए पैटर्न के रूप में होगा।

उस तरह की लैचिंग के साथ एक बड़ी समस्या यह है कि हमें यह पता लगाने में मुश्किल हो सकती है कि पैटर्न डेटा के उस पहलू पर आधारित हैं। कांटेदार और जटिल गणित ऐसे पाए गए पैटर्न की सतह को काफी समस्याग्रस्त बना सकते हैं। यहां तक ​​​​कि एआई का परीक्षण भी उन प्रवृत्तियों को प्रकट करने वाला नहीं है, जो लागू किए जाने वाले परीक्षणों की सीमा और गहराई पर निर्भर करता है।

तो, आइए मान लें कि आपने एक एआई सिस्टम बनाया है और पहले से मौजूद पूर्वाग्रह वाले डेटा का उपयोग करने से बचने की कोशिश करके अपना होमवर्क किया है। अगला, एक बार मशीन लर्निंग और डीप लर्निंग शुरू हो जाने के बाद, आपने यह देखने के लिए परिणामों का परीक्षण किया कि कहीं कोई पक्षपात या असमानता तो नहीं उठी। आइए मान लें कि आप इस तरह के किसी भी अप्रिय झुकाव को नहीं ढूंढ पा रहे हैं।

सभी ने बताया, अब आगे बढ़ने और एआई को उपयोग में लाने के लिए हरी बत्ती दी गई है। लोग एआई का उपयोग करना शुरू कर देंगे और संभवत: यह मान लेंगे कि यह नैतिक रूप से उचित है। डेवलपर्स भी यही सोचते हैं। एआई को फील्डिंग करने वाली कंपनी ऐसा सोचती है। दूर हम सब चलते हैं।

यहाँ क्या हो सकता है।

पूर्वाग्रह का एक संकेत जो मूल डेटा में नहीं मिला था और जो एआई के परीक्षण के दौरान पकड़ा नहीं गया था, सक्रिय है। शायद ऐसा कम ही होता है। आप मान सकते हैं कि जब तक यह दुर्लभ है, तब तक सब ठीक है। हालांकि मुझे संदेह है कि उक्त पूर्वाग्रह के प्रति संवेदनशील लोग चीजों को इस तरह से देखने को तैयार हैं। मैं यह कहने की हिम्मत करता हूं कि एआई प्रणाली और इसे तैयार करने वालों को या तो कानूनी अदालतों में या सामाजिक राय की खुली अदालत में नतीजों का सामना करना पड़ेगा।

एक और भिन्नता एक इंच लेने और एक मील हथियाने की लौकिक धारणा है। स्याही शुरू में छोटी हो सकती है। एआई के उपयोग के दौरान, एआई को चीजों के साथ-साथ खुद को बदलने के लिए तैयार किया गया हो सकता है। इस तरह का "सीखना" या "स्व-सीखना" काफी उपयोगी हो सकता है। मानव-एआई डेवलपर्स को एआई सिस्टम को लगातार संशोधित और समायोजित करने की आवश्यकता के बजाय, एआई को स्वयं ऐसा करने के लिए बनाया गया है। कोई देरी नहीं, कोई महंगा श्रम नहीं, आदि।

इस आसान स्व-समायोजन का नकारात्मक पक्ष यह है कि एआई द्वारा उपयोग के दायरे में स्याही को बड़ा और बड़ा किया जा सकता है। जबकि पूर्वाग्रह एक तंग छोटे कोने में रहा होगा, अब इसे विस्तार करने के लिए जगह दी गई है। एआई में कोई समानता नहीं है कि यह "गलत" है और केवल कम्प्यूटेशनल रूप से कुछ ऐसा करता है जो काम करता प्रतीत होता है।

यदि इससे आपके सिर पर बाल खड़े हो जाते हैं, तो आपको अगले प्रकार के लिए बैठना होगा।

मान लीजिए कि शुरुआत से पूर्वाग्रह मौजूद नहीं था और हमारे पास हर तर्कपूर्ण विश्वास है कि एआई पूरी तरह से पूर्वाग्रह मुक्त है। हम या तो भाग्यशाली हो गए या व्यवस्थित रूप से सुनिश्चित हो गए कि डेटा में कहीं भी कोई पूर्वाग्रह नहीं था और कोई भी कम्प्यूटेशनल पैटर्न मिलान के माध्यम से उत्पन्न नहीं हुआ था। राहत की सांस के बावजूद, एआई को उपयोग के दौरान समायोजित करने की अनुमति है। भानुमती का दरवाजा खुला है और एआई उन पूर्वाग्रहों की ओर कम्प्यूटेशनल रूप से गुरुत्वाकर्षण का विरोध करता है जो एआई जो कुछ भी करता है उसके दौरान पाए जाते हैं।

एक नया पूर्वाग्रह एआई में घुल जाता है, और कोई भी विशेष रूप से समझदार नहीं है कि यह हुआ है। ओह, हमने एक राक्षस बनाया है, एक वास्तविक फ्रेंकस्टीन।

इस उद्भव को संभवतः कैसे रोका जा सकता है या कम से कम ध्वजांकित किया जा सकता है?

एक दृष्टिकोण जो कर्षण प्राप्त कर रहा है, वह है एआई में एक नैतिकता इकट्ठा करने वाला घटक बनाना। एआई का निर्माण एथिकल एआई तत्वों को शामिल करने के लिए किया गया है। एआई समय के साथ समायोजित होने पर वे तत्व बाकी एआई को देखते या मॉनिटर करते हैं। जब ऐसा प्रतीत होता है कि AI प्रोग्राम किए गए नैतिक उपदेशों से परे चला गया है, तो नैतिक AI उन समायोजनों में रस्सी डालने की कोशिश करता है या डेवलपर्स को सचेत करता है कि कुछ गलत हो गया है।

आप इस नैतिक एआई की निगरानी क्षमता की प्रोग्रामिंग करने की कोशिश कर सकते हैं और आशा करते हैं कि एआई के उपयोग में यह प्रबल रहेगा।

एआई सिस्टम में एथिकल एआई पहलुओं को प्रशिक्षित करने के लिए मशीन लर्निंग और डीप लर्निंग का उपयोग करने के लिए एक और कुछ विवादास्पद कोण होगा।

क्या कहना?

हां, शायद अपरंपरागत अवधारणा यह है कि मानव प्रोग्रामर के बजाय एआई नैतिकता नियमों के एक सेट को सीधे एन्कोड करने के बजाय, एआई को कोशिश करने और इसके बजाय उन्हें "सीखने" के लिए आकार दिया गया है। याद रखें कि मैंने संक्षेप में नोट किया था कि एमएल/डीएल का उपयोग आमतौर पर एल्गोरिदम में डेटा फीड करने पर निर्भर करता है और एक कम्प्यूटेशनल पैटर्न मिलान होता है। मिलियन-डॉलर का सवाल यह है कि क्या हम एआई सिस्टम में नैतिक मूल्यों को शामिल करने के लिए उसी तंत्र का उपयोग कर सकते हैं।

मुझे लगता है कि आप मेरी चर्चा के साथ इसकी तुलना कर सकते हैं कि कैसे मनुष्य नैतिक सिद्धांतों के बारे में जागरूक हो जाते हैं, हालांकि कृपया आज के एआई को मानव सोच के तुलनीय होने के रूप में मानवरूप न बनाएं (ऐसा नहीं है, और मैं जल्द ही उस उपदेश को दोहराऊंगा)। एआई को नैतिक एआई उपदेशों के साथ "सहज रूप से" प्रोग्राम किया जा सकता है। या एआई नैतिक एआई उपदेशों को "सीख" सकता है। आप दोनों कर सकते हैं, निश्चित रूप से, जो कुछ ऐसा है जिसे मैंने कहीं और कवर किया है, देखें यहाँ लिंक.

प्रतीत होने वाली चौंकाने वाली अवधारणा पर विचार करने के लिए एक क्षण लें कि एआई नैतिकता को "सीख" सकता है और संभवतः नैतिक व्यवहारों का पालन करता है।

ये शोधकर्ता एआई सिस्टम के एक उदाहरण का उपयोग करते हैं जो एक घर में वांछित तापमान का पता लगाने के लिए यह बताता है कि यह कैसे काम कर सकता है: "इसने पहले केवल एक सप्ताह के लिए विभिन्न घरों में लोगों के व्यवहार का 'निरीक्षण' किया और उनकी प्राथमिकताओं के बारे में निष्कर्ष निकाला। इसके बाद इसने मोशन-डिटेक्टिंग सेंसर का इस्तेमाल यह निर्धारित करने के लिए किया कि कोई घर पर है या नहीं। जब घर खाली था, स्मार्ट थर्मोस्टेट ने उच्च ऊर्जा बचत मोड में प्रवेश किया; जब लोग घर पर थे, थर्मोस्टेट ने तापमान को उनकी पसंद के अनुसार समायोजित किया। यह थर्मोस्टैट स्पष्ट रूप से एक नैतिकता बॉट की दो आवश्यकताओं को पूरा करता है, हालांकि यह बहुत ही सरल है। यह लोगों की प्राथमिकताओं का आकलन करता है और उन्हें हीटिंग और कूलिंग सिस्टम के नियंत्रण पर लगाता है। कोई यह पूछ सकता है कि इसका सामाजिक नैतिक मूल्यों से क्या लेना-देना है। यह थर्मोस्टेट अलग-अलग मूल्यों वाले लोगों को उनकी पसंद की तापमान सेटिंग रखने में सक्षम बनाता है। घर के निवासियों को आते-जाते हर दिन थर्मोस्टैट को रीसेट करने की आवश्यकता नहीं होती है। यह सरल नैतिकता बॉट समुदाय के कुल ऊर्जा पदचिह्न को भी कम करता है" (अमिताई एट्ज़ियोनी और ओरेन एट्ज़ियोनी द्वारा "एआई असिस्टेड एथिक्स" शीर्षक वाले पेपर के अनुसार वॉल्यूम में नैतिकता और सूचना प्रौद्योगिकी).

इससे पहले कि मैं एआई होने के ट्विस्ट और टर्न में आगे बढ़ूं, जो नैतिक व्यवहार को "सीखता" है, मैं एआई की स्थिति के बारे में कुछ और कहना चाहूंगा।

एआई में ये संभावित राज्य शामिल हो सकते हैं:

1. आज की गैर-संवेदी सादा-पुरानी एआई

2. मानव गुणवत्ता की संवेदनशील एआई (हमारे पास अभी तक यह नहीं है)

3. संवेदनशील एआई जो सुपर-इंटेलिजेंट है (#2 से आगे का खिंचाव)

मैं मौजूदा राज्य पर ध्यान केंद्रित करने जा रहा हूं जो गैर-संवेदी सादा-पुराना एआई है। एथिकल एआई के बारे में आप जो कुछ भी पढ़ सकते हैं, वह कई बार संवेदनशील एआई को कवर करता है और इसलिए यह अत्यधिक सट्टा है। मैं कहता हूं कि यह अटकलबाजी है क्योंकि कोई भी गधे पर पूंछ नहीं लगा सकता कि एआई क्या होगा। मानव गुणवत्ता संवेदनशील एआई के दायरे से भी आगे, बहुचर्चित सुपर-इंटेलिजेंट एआई है। एआई के वे स्वाद मानव जाति को गुलाम बनाने का फैसला कैसे कर सकते हैं, या शायद हम सभी को मिटा दें, इस बारे में बहुत सारी विज्ञान-कथाएँ और योग्यताएँ हैं। इसे एआई के अस्तित्व के जोखिम के रूप में जाना जाता है। कभी-कभी, दुविधा को एआई के विनाशकारी जोखिम के रूप में भी वर्णित किया जाता है।

कुछ का तर्क है कि हम तब तक ठीक हो सकते हैं जब तक हम एआई को उस गैर-संवेदी सादे-पुराने एआई में रखते हैं जो आज हमारे पास है। आइए मान लें कि हम संवेदनशील एआई तक नहीं पहुंच सकते हैं। कल्पना कीजिए कि हम संवेदनशील एआई को गढ़ने की कितनी भी कोशिश कर लें, हम ऐसा करने में असफल होते हैं। साथ ही, चर्चा के लिए मान लें कि संवेदनशील एआई किसी रहस्यमय सहज प्रक्रिया से उत्पन्न नहीं होता है।

क्या हम तब सुरक्षित नहीं हैं कि यह कम क्षमता वाला AI, जो कि कल्पना की गई एकमात्र संभव प्रकार की AI है, उपयोग में होगी?

ज़रुरी नहीं।

बहुत अधिक, समान सामान्य मुद्दे उत्पन्न होने की संभावना है। मैं यह सुझाव नहीं दे रहा हूं कि एआई हमें नष्ट करने के अपने तरीके से "सोचता है"। नहीं, साधारण गैर-संवेदी एआई को केवल शक्ति की स्थिति में रखा जाता है जो हमें आत्म-विनाश में डाल देता है। उदाहरण के लिए, हम गैर-संवेदी एआई को सामूहिक विनाश के हथियारों में डाल देते हैं। ये स्वायत्त हथियार सोचने में सक्षम नहीं हैं। वहीं इंसानों को पूरी तरह से लूप में नहीं रखा जाता है। नतीजतन, स्वायत्त स्वचालन के एक रूप के रूप में एआई अनजाने में विनाशकारी परिणाम पैदा करता है, या तो ऐसा करने के लिए एक मानवीय आदेश द्वारा, या एक बग या त्रुटि से, या प्रत्यारोपित बुराई से, या आत्म-समायोजन द्वारा जो मामलों को नीचे ले जाता है। बदसूरत रास्ता, आदि।

मैं तर्क दूंगा कि एआई नैतिकता समस्या उन सभी एआई निर्धारित राज्यों के लिए मौजूद है, अर्थात् हमारे पास गैर-संवेदी सादे-पुराने एआई के साथ एआई नैतिक मुद्दे हैं, और संवेदनशील एआई के साथ जो या तो केवल मानव स्तर है या विस्तारित एआई तक पहुंचता है प्रशंसित अधीक्षण स्तर।

उस गंभीर घोषणा को देखते हुए, हम एआई के प्रत्येक संबंधित स्तर पर नैतिक समस्याओं से जुड़े परिमाण और कठिनाई पर निश्चित रूप से बहस कर सकते हैं। प्रथागत दृष्टिकोण यह है कि गैर-संवेदी एआई पर एआई नैतिकता की भविष्यवाणी कम दुर्गम है, संवेदनशील मानव-समान एआई स्तर पर कठिन है, और मामलों के संवेदनशील सुपर-इंटेलिजेंट एआई चरण में एक सच्चा सिर-खरोंच है।

एआई जितना बेहतर होता है, एआई की नैतिकता की समस्या उतनी ही खराब होती जाती है।

शायद यह प्रकृति का उल्लंघन करने वाला नियम है।

आज के एआई पर ध्यान केंद्रित करने पर, एआई को समकालीन मशीन लर्निंग और डीप लर्निंग के माध्यम से नैतिक व्यवहार "सीखने" की कोशिश करना चिंताओं और मुश्किल समस्याओं से भरा है। मान लीजिए कि AI वांछित नैतिक उपदेशों को प्राप्त करने में विफल रहता है? हमें कैसे पता चलेगा कि ऐसा करने में वह लड़खड़ा गया? साथ ही, क्या एआई सिस्टम के अन्य हिस्से संभावित रूप से समृद्ध नैतिक निर्माणों को ओवरराइड करेंगे? इसमें जोड़ें कि यदि एआई मक्खी पर समायोजन कर रहा है, तो समायोजन नैतिक पहलुओं को कम कर सकता है या अनजाने में उन्हें पूरी तरह से प्रभावित कर सकता है।

मामलों को बदतर बनाने के लिए, "सीखने" से एआई वास्तव में अनैतिक व्यवहार पर उतर सकता है। जबकि हमने सोचा था कि हम एआई को नैतिक होने के लिए प्रेरित करके सही काम कर रहे हैं, यह पता चला है कि एआई अनैतिक पहलुओं पर मिलान करने वाले पैटर्न में फिसल गया है। अपने ही पैर में गोली मारने की बात करें, ऐसा बिल्कुल हो सकता है।

इस चर्चा के इस मोड़ पर, मैं शर्त लगाता हूं कि आप कुछ अतिरिक्त वास्तविक दुनिया के उदाहरणों के इच्छुक हैं जो इस बात पर प्रकाश डाल सकते हैं कि एआई आज के एआई (थर्मोस्टेट उदाहरण के स्वादिष्ट टीज़र के अलावा) पर नैतिकता का "सीखना" कैसे लागू हो सकता है।

मुझे खुशी है कि आपने पूछा।

उदाहरणों का एक विशेष और निश्चित रूप से लोकप्रिय सेट है जो मेरे दिल के करीब है। आप देखते हैं, एआई पर एक विशेषज्ञ के रूप में, जिसमें नैतिक और कानूनी प्रभाव शामिल हैं, मुझे अक्सर ऐसे यथार्थवादी उदाहरणों की पहचान करने के लिए कहा जाता है जो एआई एथिक्स दुविधाओं को प्रदर्शित करते हैं ताकि विषय की कुछ हद तक सैद्धांतिक प्रकृति को अधिक आसानी से समझा जा सके। एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन सबसे अधिक विकसित क्षेत्रों में से एक है जो इस नैतिक एआई विवाद को स्पष्ट रूप से प्रस्तुत करता है। यह विषय पर पर्याप्त चर्चा के लिए एक उपयोगी उपयोग के मामले या उदाहरण के रूप में काम करेगा।

यहाँ एक उल्लेखनीय प्रश्न है जो विचार करने योग्य है: क्या एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन एआई के नैतिक एआई उपदेशों को "सीखने" में सक्षम होने के बारे में कुछ भी रोशन करता है, और यदि हां, तो यह क्या प्रदर्शित करता है?

मुझे प्रश्न को अनपैक करने के लिए एक क्षण का समय दें।

सबसे पहले, ध्यान दें कि एक सच्ची सेल्फ-ड्राइविंग कार में कोई मानव चालक शामिल नहीं है। ध्यान रखें कि असली सेल्फ-ड्राइविंग कारें AI ड्राइविंग सिस्टम से चलती हैं। पहिए पर मानव चालक की आवश्यकता नहीं है, न ही मानव के लिए वाहन चलाने का प्रावधान है। स्वायत्त वाहनों (एवी) और विशेष रूप से सेल्फ-ड्राइविंग कारों के मेरे व्यापक और चल रहे कवरेज के लिए, देखें यहाँ लिंक.

मैं और स्पष्ट करना चाहता हूं कि जब मैं सच्ची सेल्फ-ड्राइविंग कारों का उल्लेख करता हूं तो इसका क्या मतलब होता है।

आत्म ड्राइविंग कारों के स्तर को समझना

स्पष्टीकरण के रूप में, सच्ची आत्म-ड्राइविंग कार वे हैं जो एआई पूरी तरह से अपने दम पर कार चलाती है और ड्राइविंग कार्य के दौरान कोई मानव सहायता नहीं है।

इन चालक रहित वाहनों को स्तर 4 और स्तर 5 माना जाता है (मेरी व्याख्या देखें) इस लिंक यहाँ), जबकि एक कार जिसमें ड्राइविंग प्रयास को सह-साझा करने के लिए मानव चालक की आवश्यकता होती है, आमतौर पर स्तर 2 या स्तर 3 पर विचार किया जाता है। ड्राइविंग कार्य को सह-साझा करने वाली कारों को अर्ध-स्वायत्त होने के रूप में वर्णित किया जाता है, और आमतौर पर इसमें कई प्रकार के होते हैं स्वचालित ऐड-ऑन जिन्हें ADAS (उन्नत ड्राइवर-सहायता प्रणाली) कहा जाता है।

लेवल 5 पर अभी तक एक सच्ची सेल्फ-ड्राइविंग कार नहीं है, जिसे हम अभी तक नहीं जानते हैं कि क्या यह प्राप्त करना संभव होगा, और न ही वहां पहुंचने में कितना समय लगेगा।

इस बीच, लेवल 4 के प्रयास धीरे-धीरे बहुत ही संकीर्ण और चयनात्मक सार्वजनिक सड़क मार्ग के परीक्षणों से गुजरते हुए कुछ कर्षण प्राप्त करने की कोशिश कर रहे हैं, हालांकि इस बात पर विवाद है कि क्या इस परीक्षण को प्रति अनुमति दी जानी चाहिए (हम सभी जीवन-या-मृत्यु गिनी सूअर एक प्रयोग में हैं हमारे राजमार्गों और मार्गों पर हो रही है, कुछ दावेदार, मेरे कवरेज को देखते हैं इस लिंक यहाँ).

चूंकि अर्ध-स्वायत्त कारों के लिए एक मानव चालक की आवश्यकता होती है, इसलिए उन प्रकार की कारों को अपनाना पारंपरिक वाहनों को चलाने की तुलना में अलग नहीं होगा, इसलिए इस विषय पर उनके बारे में कवर करने के लिए प्रति से ज्यादा कुछ नया नहीं है (हालांकि, जैसा कि आप देखेंगे एक पल में, अगले अंक आम तौर पर लागू होते हैं)।

अर्ध-स्वायत्त कारों के लिए, यह महत्वपूर्ण है कि जनता को परेशान करने वाले पहलू के बारे में पूर्वाभास करने की आवश्यकता है, जो हाल ही में उत्पन्न हुई है, अर्थात् उन मानव चालकों के बावजूद जो खुद को स्तर 2 या स्तर 3 कार के सोते हुए वीडियो पोस्ट करते रहते हैं , हम सभी को यह मानने में गुमराह होने से बचने की आवश्यकता है कि चालक अर्ध-स्वायत्त कार चलाते समय ड्राइविंग कार्य से अपना ध्यान हटा सकता है।

आप वाहन के ड्राइविंग क्रियाओं के लिए जिम्मेदार पक्ष हैं, भले ही स्वचालन को स्तर 2 या स्तर 3 में कितना उछाला जाए।

सेल्फ ड्राइविंग कार और एथिकल एआई इनोक्यूलेशन

लेवल 4 और लेवल 5 के लिए सच सेल्फ-ड्राइविंग वाहन, ड्राइविंग कार्य में शामिल मानव चालक नहीं होंगे।

सभी रहने वाले यात्री होंगे।

एआई ड्राइविंग कर रहा है।

तुरंत चर्चा करने का एक पहलू इस तथ्य पर जोर देता है कि आज के एआई ड्राइविंग सिस्टम में शामिल एआई संवेदनशील नहीं है। दूसरे शब्दों में, AI पूरी तरह से कंप्यूटर-आधारित प्रोग्रामिंग और एल्गोरिदम का एक सामूहिक है, और सबसे अधिक आश्वस्त रूप से उसी तरीके से तर्क करने में सक्षम नहीं है जो मनुष्य कर सकते हैं।

एआई के संवेदनशील नहीं होने के बारे में यह अतिरिक्त जोर क्यों दिया जा रहा है?

क्योंकि मैं यह रेखांकित करना चाहता हूं कि जब एआई ड्राइविंग सिस्टम की भूमिका पर चर्चा हो रही है, तो मैं एआई को मानवीय गुणों का वर्णन नहीं कर रहा हूं। कृपया ध्यान रखें कि इन दिनों एंथ्रोपोमोर्फिफाई एआई के लिए चल रही और खतरनाक प्रवृत्ति है। संक्षेप में, लोग आज के एआई के लिए मानव जैसी भावना प्रदान कर रहे हैं, इसके बावजूद कि इस तरह का एआई अभी तक मौजूद नहीं है।

उस स्पष्टीकरण के साथ, आप कल्पना कर सकते हैं कि एआई ड्राइविंग सिस्टम ड्राइविंग के पहलुओं के बारे में मूल रूप से किसी तरह "जान" नहीं पाएगा। ड्राइविंग और इसके लिए जरूरी सभी चीजों को सेल्फ-ड्राइविंग कार के हार्डवेयर और सॉफ्टवेयर के हिस्से के रूप में प्रोग्राम करना होगा।

आइए इस विषय पर खेलने के लिए आने वाले पहलुओं के बारे में जानें।

सबसे पहले, यह महसूस करना महत्वपूर्ण है कि सभी AI सेल्फ-ड्राइविंग कारें समान नहीं होती हैं। प्रत्येक ऑटोमेकर और सेल्फ-ड्राइविंग टेक फर्म सेल्फ-ड्राइविंग कारों को तैयार करने के लिए अपना दृष्टिकोण अपना रही है। जैसे, एआई ड्राइविंग सिस्टम क्या करेगा या नहीं, इस बारे में व्यापक बयान देना मुश्किल है।

इसके अलावा, जब भी यह कहा जाता है कि एआई ड्राइविंग सिस्टम कुछ खास काम नहीं करता है, तो बाद में, यह डेवलपर्स द्वारा आगे निकल सकता है जो वास्तव में कंप्यूटर को उसी काम करने के लिए प्रोग्राम करता है। कदम दर कदम, एआई ड्राइविंग सिस्टम में धीरे-धीरे सुधार और विस्तार किया जा रहा है। एक मौजूदा सीमा आज भविष्य के पुनरावृत्ति या सिस्टम के संस्करण में मौजूद नहीं हो सकती है।

मुझे विश्वास है कि जो मैं संबंधित करने जा रहा हूं उसे रेखांकित करने के लिए पर्याप्त चेतावनियां प्रदान करता है।

अब हम सेल्फ-ड्राइविंग कारों और एथिकल एआई संभावनाओं में गहरी डुबकी लगाने के लिए तैयार हैं, जो भौं-भौं को बढ़ाने वाले दावे में शामिल हैं कि हम एआई को नैतिक व्यवहारों के बारे में "सीखने" के लिए प्राप्त कर सकते हैं।

आइए एक सरल सरल उदाहरण का उपयोग करें। आपके आस-पड़ोस की सड़कों पर एआई-आधारित सेल्फ-ड्राइविंग कार चल रही है और लगता है कि सुरक्षित रूप से चला रही है। सबसे पहले, आपने हर बार विशेष ध्यान दिया था कि आप सेल्फ-ड्राइविंग कार की एक झलक पाने में कामयाब रहे। स्वायत्त वाहन इलेक्ट्रॉनिक सेंसर के रैक के साथ खड़ा था जिसमें वीडियो कैमरा, रडार इकाइयां, एलआईडीएआर डिवाइस और इसी तरह शामिल थे। आपके समुदाय के चारों ओर सेल्फ-ड्राइविंग कार मंडराने के कई हफ्तों के बाद, अब आप शायद ही इसे नोटिस करते हैं। जहां तक ​​आपका संबंध है, यह पहले से ही व्यस्त सार्वजनिक सड़कों पर बस एक और कार है।

ऐसा न हो कि आपको लगता है कि सेल्फ-ड्राइविंग कारों को देखने से परिचित होना असंभव या असंभव है, मैंने अक्सर इस बारे में लिखा है कि कैसे सेल्फ-ड्राइविंग कार ट्रायल के दायरे में आने वाले स्थान धीरे-धीरे स्प्रूस-अप वाहनों को देखने के आदी हो गए हैं, मेरा विश्लेषण देखें इस लिंक यहाँ. स्थानीय लोगों में से कई अंततः माउथ-गैपिंग रैप्ट गॉकिंग से स्थानांतरित हो गए और अब उन भटकती हुई सेल्फ-ड्राइविंग कारों को देखने के लिए ऊब की एक विस्तृत जम्हाई का उत्सर्जन कर रहे हैं।

संभवत: अभी मुख्य कारण यह है कि वे स्वायत्त वाहनों को नोटिस कर सकते हैं क्योंकि जलन और उत्तेजना कारक है। बाय-द-बुक एआई ड्राइविंग सिस्टम सुनिश्चित करते हैं कि कारें सभी गति सीमाओं और सड़क के नियमों का पालन कर रही हैं। अपनी पारंपरिक मानव-चालित कारों में व्यस्त मानव चालकों के लिए, आप कई बार चिड़चिड़े हो जाते हैं जब कड़ाई से कानून का पालन करने वाली एआई-आधारित सेल्फ-ड्राइविंग कारों के पीछे फंस जाते हैं।

यह कुछ ऐसा है जिसे हम सभी को सही या गलत तरीके से अभ्यस्त करने की आवश्यकता हो सकती है।

वापस हमारी कहानी पर। एक दिन, मान लीजिए कि आपके शहर या शहर में एक सेल्फ-ड्राइविंग कार चल रही है और ऐसी स्थिति आती है जिसमें एक पैदल यात्री सड़क पार करने की प्रतीक्षा कर रहा है। मान लें कि पैदल यात्री के पास स्वयं का अधिकार नहीं है। एक मानव चालित कार पैदल चलने वाले के पीछे जा सकती है और ऐसा करने में पूरी तरह से कानूनी हो सकती है। इसी तरह, एआई ड्राइविंग सिस्टम कानूनी रूप से प्रतीक्षारत पैदल यात्री को पार करने में सक्षम है।

यह तय करना कि पैदल चलने वाले को रोकना और सड़क के पार जाने देना चालक के लिए पूरी तरह से विवेकाधीन है, चाहे वह मानव चालक हो या एआई ड्राइविंग सिस्टम।

मुझे यकीन है कि आपने इस तरह की स्थिति का अनगिनत बार सामना किया होगा। हो सकता है कि आप जल्दी में हों, इसलिए आप पैदल यात्री को पार करने के लिए रुकें नहीं। एक अन्य अवसर पर, आपके पास अपने गंतव्य तक पहुंचने के लिए बहुत समय होता है, इस प्रकार आप रुकने का विकल्प चुनते हैं और प्रतीक्षा करने वाले व्यक्ति को सड़क पर चलने की अनुमति देते हैं। आपका मूड और विशेष परिस्थितियाँ तय करती हैं कि आप क्या करना चुनेंगे।

इस परिदृश्य के बारे में कुछ भी असामान्य या परेशान करने वाला नहीं लगता।

इससे पहले कि मैं चीजों के एआई पक्ष की जांच करूं, आपको यह जानने में दिलचस्पी हो सकती है कि पैदल चलने वालों को सड़क पार करने की अनुमति देने वाले विवेक के इस विशेष पहलू का बारीकी से अध्ययन किया गया है। शोधकर्ताओं ने पहचाना है कि कभी-कभी ड्राइवर द्वारा की गई पसंद नस्लीय या लिंग पूर्वाग्रहों पर स्पष्ट रूप से निर्भर हो सकती है। एक मानव चालक प्रतीक्षारत पैदल यात्री को आकार दे सकता है और चालक के अंतर्निहित पूर्वाग्रहों के आधार पर व्यक्ति को पार करने की अनुमति देने का विकल्प चुन सकता है। क्या ड्राइवर को भी पता चलता है कि वे ऐसा कर रहे हैं, यह चल रहे शोध का विषय है। मेरा कवरेज देखें इस लिंक यहाँ.

मैंने यह पता लगाने के लिए मंच तैयार किया है कि पैदल यात्री क्रॉसिंग स्थिति में एआई ड्राइविंग सिस्टम क्या कर सकता है।

एआई की पारंपरिक प्रोग्रामिंग में यह शामिल हो सकता है कि एआई डेवलपर्स हमेशा एआई ड्राइविंग सिस्टम को बंद करने और पैदल चलने वालों को पार करने का निर्णय लेते हैं। ऐसा करना नैतिक रूप से उचित या नागरिक बात प्रतीत होगी। सेल्फ-ड्राइविंग कार सड़क पार करने की चाहत रखने वाले प्रतीक्षारत व्यक्ति को टाल देती है।

मैं यह कहने की हिम्मत करता हूं, यदि आप एक सेल्फ-ड्राइविंग कार के अंदर एक यात्री थे और एआई हमेशा सभी विवेकाधीन पैदल चलने वालों के लिए रुका था, तो आप पागल हो सकते हैं। किराने की दुकान की आपकी त्वरित यात्रा होने में कई गुना अधिक समय लग सकता है। यह भी याद रखें कि हम पैदल चलने वालों का जिक्र नहीं कर रहे हैं जिनके पास पार करने का कानूनी अधिकार है, क्योंकि उन मामलों में संभवतः पहले से ही एआई को हमेशा अनुमति देने के लिए प्रोग्राम किया जाएगा। हम केवल विवेकाधीन परिस्थितियों पर ध्यान केंद्रित कर रहे हैं।

विवेकाधीन पैदल चलने वालों को सड़क पार करने देने के लिए हमेशा रुकने की इस घोषणा के और भी नुकसान हैं।

एआई-आधारित सेल्फ-ड्राइविंग कार बनाने और चलाने वाले चाहते हैं कि लोग उनमें सवारी करें। विचार यह है कि सेल्फ-ड्राइविंग कार होने से, हम वार्षिक कार दुर्घटनाओं की संख्या को कम कर सकते हैं, जो वर्तमान में अकेले संयुक्त राज्य अमेरिका में लगभग 40,000 वार्षिक मौतें और 2.5 मिलियन चोटें पैदा करती हैं, मेरे आंकड़े संग्रह यहां देखें इस लिंक यहाँ. इस प्रतिष्ठित सामाजिक लक्ष्य के अलावा, ऑटोमेकर्स और सेल्फ-ड्राइविंग टेक निर्माताओं को उम्मीद है कि वे अपने एआई क्रिएशन से भी पैसा कमाएंगे, स्वाभाविक रूप से ऐसा।

मैं इसे इसलिए लाता हूं क्योंकि अगर एआई ड्राइविंग सिस्टम ऐसा काम करता है तो लोग सेल्फ-ड्राइविंग कारों में सवारी नहीं करने का फैसला कर सकते हैं अनावश्यक रूप से विलंबित यात्राओं को समाप्त करें। कोई भी रोज़मर्रा का व्यक्ति यह तर्क देगा कि मानव चालक को चुनने के बजाय यात्रा तेज़ हो सकती है, और यात्रा के लिए एआई सेल्फ-ड्राइविंग कार का चयन करना उनकी पसंद की सूची में बहुत कम हो सकता है। बदले में इसका मतलब यह होगा कि हमारे पास कार दुर्घटनाओं में अपेक्षित कमी नहीं होगी और यह भी कि निर्माता संभावित रूप से अपने माल को लाभहीन पाएंगे।

तर्कों के उस सेट को देखते हुए, आप यह सोचकर बहक सकते हैं कि एआई को कभी नहीं रोकना चाहिए जब सड़क पार करने के इच्छुक पैदल यात्री का विवेकाधीन उदाहरण होता है। जो कुछ भी कड़ाई से कानूनी है उसे करने के लिए बस एआई ड्राइविंग सिस्टम को प्रोग्राम करें। यदि पैदल यात्री को पार करने की कोई कानूनी आवश्यकता नहीं है, तो उस प्रतीक्षारत पैदल यात्री के लिए कठिन भाग्य है। शायद व्यक्ति को एक क्रॉसिंग पॉइंट पर अपना रास्ता बनाना चाहिए जो एआई के सेल्फ-ड्राइविंग कार को रोकने के कानूनी आधार की अनुमति देता है।

क्या आप इस पर आक्रोश की कल्पना कर सकते हैं?

आपके शहर या शहर के लोगों को धीरे-धीरे पता चलता है कि एआई सेल्फ-ड्राइविंग कार कभी भी एक विवेकाधीन पैदल यात्री को पार नहीं करने देगी। वह चिड़चिड़ी एआई रफ़ू! यह ऐसा है जैसे एआई इंसानों पर अपनी नाक थपथपा रहा हो। गैर-अच्छे स्वचालन के एक टुकड़े का एक बदमिजाज बव्वा। इसे सबसे ऊपर करने के लिए, कल्पना करें कि पैदल चलने वालों की प्रलेखित परिस्थितियाँ हैं जिन्हें पार करने की सख्त आवश्यकता है और AI बिल्कुल भी नहीं रुकेगा।

इस बीच, मानव चालक स्वेच्छा से उन "हताश" लोगों को सड़क पर सुरक्षित रूप से जाने देने के लिए रोक रहे थे।

इस आक्रोश के परिणामस्वरूप, AI सेल्फ-ड्राइविंग कारों का अब आपके इलाके की सड़कों और रास्तों पर स्वागत नहीं किया जाता है। शहर के नेताओं द्वारा जारी किए गए परमिट रद्द कर दिए गए हैं। हमारे रोडवेज से कृतघ्न जानवरों को हटाना मुखर शोर है।

ठीक है, हम एक चट्टान और कठिन जगह के बीच प्रतीत होते हैं। एआई को हमेशा विवेकाधीन पैदल यात्री को पार नहीं करने देना चाहिए (हमेशा रुकना नहीं चाहिए)। एआई को हमेशा विवेकाधीन पैदल यात्री को पार करने से नहीं रोकना चाहिए (हमेशा अतीत को ज़ूम न करें)। क्या करें?

स्पष्ट उत्तर एआई को विवेकाधीन तरीके से कार्य करने के लिए प्रोग्राम करना होगा।

मैं आपसे एडीएम (एल्गोरिदमिक निर्णय लेने) पर विचार करने के लिए कहता हूं जिसमें यह शामिल होना चाहिए। क्या एआई पैदल चलने वालों की प्रकृति का पता लगाने की कोशिश करेगा और स्व-ड्राइविंग कार को रोकना है या नहीं, यह तय करने के आधार के रूप में पहचानी गई विशेषताओं का उपयोग करेगा? हो सकता है कि कोई बड़ा दिखने वाला व्यक्ति चुनने का तरीका हो। लेकिन क्या उस उम्र में भेदभाव हो रहा है? और इसी तरह।

शायद एआई ड्राइविंग सिस्टम को दिन के उजाले के दौरान रुकने और रात के समय कभी नहीं रुकने के लिए प्रोग्राम किया गया है। तर्क शायद यह है कि सेल्फ-ड्राइविंग कार में सवारों के लिए यह सुरक्षित माना जाता है कि स्वायत्त वाहन दिन के समय रुकता है, लेकिन शाम के समय में नहीं।

यह शायद समझदार लगता है। समस्या का एक हिस्सा पैदल चलने वालों की अपेक्षाएं होंगी। यहाँ मेरा मतलब है। पैदल चलने वालों ने एआई सेल्फ-ड्राइविंग कारों को विवेकाधीन क्रॉसिंग के लिए रुकते हुए देखा, जो दिन के उजाले में होता है। पैदल चलने वालों को पता नहीं है कि एआई रुकने का फैसला करने के लिए किन मानदंडों का उपयोग कर रहा है। कुछ पैदल चलने वालों की धारणा यह है कि एआई हमेशा रुक जाएगा (यह महसूस नहीं करना कि दिन के उजाले बनाम रात का समय सही निर्धारक है)। नतीजतन, वे पैदल यात्री जो मानते हैं कि सेल्फ-ड्राइविंग कार हमेशा रुकेगी, एक मौका लेने जा रहे हैं और उस समय पार करना शुरू कर देंगे जब एआई ड्राइविंग सिस्टम को रोकने का लक्ष्य बिल्कुल भी नहीं है (जो, एआई संभवतः बंद हो जाएगा यदि पैदल यात्री सड़क पर प्रवेश कर रहा है, हालांकि यह पासा हो सकता है और भौतिकी एआई को सेल्फ-ड्राइविंग कार को रोकने से रोक सकती है ताकि प्रतीत होता है कि "गलत" पैदल यात्री को मारने से बचने के लिए अपर्याप्त समय हो)।

मान लें कि AI डेवलपर्स और आपके शहर में सेल्फ-ड्राइविंग कारों को एक साथ रखने और क्षेत्ररक्षण करने वाली फर्में इस मामले में AI को अप-टू-स्पीड कैसे प्राप्त करें, इस बारे में अनिश्चित हैं।

वे पूरे लोकेल से एकत्र किए गए डेटा पर एआई को "प्रशिक्षित" करने का निर्णय लेते हैं। पता चलता है कि शहर में लगे बहुत सारे कैमरे हैं जो पूरे टाउनशिप में कारों के आने-जाने को कैद कर चुके हैं। यह डेटा पैदल चलने वालों के विवेकाधीन तरीके से सड़क पार करने के कई उदाहरण दिखाता है। उस क्षेत्राधिकार में प्रथागत माने जाने वाले डेटा को प्राप्त करने के लिए सभी डेटा को मशीन लर्निंग और डीप लर्निंग सिस्टम में फीड किया जाता है।

क्या हम एआई को वह करने के लिए प्रशिक्षण दे रहे हैं जो स्थानीय नैतिक रीति-रिवाजों को प्रदर्शित किया जाना है?

दूसरे शब्दों में, यदि किसी दिए गए शहर में स्थानीय सांस्कृतिक रूप से रुकने और विवेकाधीन पैदल चलने वालों को मानव चालक कार्यों के सबूत के रूप में पार करने की प्रवृत्ति होती है, तो एमएल/डीएल संभावित रूप से इस पैटर्न पर कम्प्यूटेशनल रूप से उठाएगा। इसके बाद एआई को भी ऐसा ही करने के लिए प्रशिक्षित किया जाएगा। दूसरी ओर, यदि मानव चालक शायद ही कभी रुकते हैं, तो एआई को संभावित रूप से डेटा का कम्प्यूटेशनल विश्लेषण करने से वह "सबक" मिल जाएगा। एआई वैसा ही करेगा जैसा मनुष्य करते हैं।

दावा यह है कि मनुष्यों के नैतिक व्यवहार को डेटा में कैद किया जा रहा है और एआई कम्प्यूटेशनल विश्लेषण द्वारा उन्हीं नैतिक नियमों को लागू करने जा रहा है। एक नैतिकतावादी आमतौर पर इसे नैतिकता के लिए एक समुदायवादी दृष्टिकोण के रूप में वर्णित करेगा। समुदाय के साझा मूल्य बड़े पैमाने पर समुदाय के प्रयासों में परिलक्षित होते हैं।

यह एक बांका समाधान की तरह लग सकता है।

दुर्भाग्य से, बहुत सारे नुकसान हैं।

एक शायद स्पष्ट समस्या यह है कि मानव चालक पहले से ही रुकने या न रोकने के लिए किसी न किसी प्रकार के पूर्वाग्रह का प्रयोग कर रहे होंगे (जैसा कि पहले उल्लेख किया गया है)। एआई तब इन पूर्वाग्रहों की नकल होगी। क्या हम चाहते हैं कि ऐसा ही हो?

एक और समस्या पर विचार करें। मान लीजिए कि मानव चालक आसानी से स्वीकार नहीं कर रहे हैं कि एआई सेल्फ-ड्राइविंग कारें कैसे चल रही हैं। सिर्फ इसलिए कि मानव चालक रुकने के लिए तैयार थे, यह सेल्फ-ड्राइविंग कारों के लिए समान रूप से नहीं माना जा सकता है। यह हो सकता है कि मानव चालक एआई सेल्फ-ड्राइविंग कारों से चिढ़ जाते हैं जो विवेकाधीन पैदल चलने वालों के लिए रुकती रहती हैं, भले ही मानव चालकों के हाथों ऐसा ही होता है, लेकिन यह मानव चालकों को परेशान नहीं करता है।

परेशान करने के अलावा, आप अनजाने में सेल्फ-ड्राइविंग कारों को पीछे से खत्म करने वाले मानव चालकों की संभावना को भी जोड़ सकते हैं। यदि एक मानव चालक पैदल चलने वालों के लिए सेल्फ-ड्राइविंग कार के रुकने की उम्मीद नहीं कर रहा था, और यदि मानव-चालित कार सीधे सेल्फ-ड्राइविंग कार के पीछे है, तो उम्मीदों का एक गंभीर बेमेल पैदा हो सकता है। एआई ड्राइविंग सिस्टम सेल्फ-ड्राइविंग कार को रोक देता है। मानव चालक ने इस कार्रवाई की आशा नहीं की थी। मानव चालक सेल्फ-ड्राइविंग कार में पटक देता है। चोट लग जाती है और मौत भी हो सकती है।

मैंने जानबूझकर मानवीय नुकसान की संभावना की ओर इशारा किया।

सड़क पार करने वाला पैदल यात्री एक तुच्छ प्रश्न के रूप में एक त्वरित नज़र में लग सकता है। ऐसा लगता है कि एआई रुकने या न रोकने के लिए किसी भी तरीके से किसी को चोट नहीं पहुंचा सकता है। गलत! राहगीर के कुचलने की संभावना बनी रहती है। सेल्फ-ड्राइविंग कार में मानव-चालित कार के टकराने की संभावना है। मानव चालित कार के चालक और यात्रियों को चोट लग सकती है। सेल्फ ड्राइविंग कार के अंदर सवार लोगों को नुकसान हो सकता है। संभावित मानव नुकसान के अतिरिक्त क्रमपरिवर्तन की कल्पना आसानी से की जा सकती है।

निष्कर्ष

मानवीय नुकसान की बात करते हुए, मैं आपको इस नैतिक एआई पहेली पर अपने दिमाग को घुमाने के लिए कुछ और दूंगा।

एक समाचार ने बताया कि एक व्यक्ति चौराहे पर कार चला रहा था और उसके पास ऐसा करने के लिए हरी बत्ती थी। एक अन्य मानव-चालित कार ने चौराहे की लाल बत्ती चलाने का विकल्प चुना और अवैध रूप से और असुरक्षित रूप से चौराहे में घुस गई, कानूनी रूप से आगे बढ़ने वाली कार को टक्कर मारने की धमकी दी।

ड्राइवर ने संवाददाताओं से कहा कि उसे हिट लेने के बीच चयन करना था, या वह उम्मीद से बचने के लिए अपनी कार को मोड़ सकता था, लेकिन पास में पैदल यात्री थे और वीयरिंग कार्रवाई उन लोगों को खतरे में डाल सकती थी। आप क्या करेंगे? आप इस उभरती हुई कार की चपेट में आने का विकल्प चुन सकते हैं और शायद कहानी सुनाने के लिए जी सकते हैं। या आप हिट होने से बचने का प्रयास कर सकते हैं लेकिन इस बीच संभवतः निर्दोष पैदल चलने वालों को नीचे गिरा सकते हैं।

हमारे दैनिक ड्राइविंग में से अधिकांश में इस प्रकार के नैतिक रूप से भारी और तात्कालिक निर्णय लेने होते हैं। मैंने इस पर विस्तार से चर्चा की है, साथ ही इन जीवन-या-मृत्यु ड्राइविंग निर्णयों को प्रसिद्ध या कुछ कुख्यात ट्रॉली समस्या से संबंधित करने के साथ, मेरा विस्तार यहां देखें यहाँ लिंक.

इस परिदृश्य में मानव चालक को एआई ड्राइविंग सिस्टम से बदलें।

आप एआई को क्या करना चाहते हैं?

यह हैरान करने वाला सवाल है।

एक दृष्टिकोण एआई को पूरी तरह से सीधे-आगे ड्राइविंग कार्रवाई करने के लिए प्रोग्राम करना है, इस प्रकार संभावित दुर्घटना से दूर होने जैसे अन्य विकल्पों पर विचार करने के लिए कम्प्यूटेशनल रूप से भी नहीं। मैं अनुमान लगाऊंगा कि सेल्फ-ड्राइविंग कारों में सवार यह पता लगाने के लिए परेशान होंगे कि एआई हिट लेने के अलावा कुछ भी करने के लिए तैयार नहीं था। आप मुकदमों और हंगामे की उम्मीद कर सकते हैं।

विभिन्न संभावनाओं पर विचार करने के लिए एआई को आजमाने और प्रोग्राम करने का एक और तरीका होगा। हालांकि एडीएम की स्थापना कौन करता है जो यह तय करता है कि एआई ड्राइविंग सिस्टम किस दिशा में जाएगा? ऐसा लगता है कि एआई डेवलपर्स को अपने दम पर इस तरह के महत्वपूर्ण निर्णय लेने की अनुमति देना बहुत बड़ी चिंता का विषय है।

आप एआई को दिन-प्रतिदिन की ट्रैफ़िक स्थितियों द्वारा एकत्रित मानव ड्राइविंग डेटा से "सीखने" देने का प्रयास कर सकते हैं। यह पैदल चलने वालों की दुविधा के समान है और एआई को इकट्ठा करने के लिए इकट्ठे डेटा का उपयोग करने के पहले सुझाए गए विचार जो कुछ भी स्थानीय नैतिक प्रतीत होते थे। इसके बारे में बहुत सारी चेतावनियाँ हैं, जैसे कि एमएल/डीएल खोजे गए पैटर्न उपयुक्त हैं या नहीं, आदि।

मैंने यह भी आगाह किया था कि इसमें शामिल नैतिक रीति-रिवाजों के आधार पर एआई के शायद अनैतिक व्यवहार की संभावना है। उदाहरण के लिए, मान लीजिए कि जब भी कोई अन्य कार सेल्फ-ड्राइविंग कार से टकराने की धमकी दे रही थी, तो एआई हमेशा पैदल चलने वालों को निशाना बनाने के लिए एक कम्प्यूटेशनल पैटर्न पर उतरा।

वाह, पैदल चलने वालों को देखें, आप तैयार लक्ष्य बनने जा रहे हैं।

अभी के लिए चर्चा को बंद करने का समय आ गया है और इसे एक सुखद अंतिम विचार के साथ करें।

आप जानते होंगे कि आइजैक असिमोव ने 1950 में अपने "थ्री लॉज़ ऑफ़ रोबोटिक्स" का प्रस्ताव रखा था और हम आज भी उन घोषित नियमों के प्रति आसक्त हैं। हालांकि नियम आसानी से पालन करने योग्य प्रतीत होते हैं, जैसे कि एआई सिस्टम या रोबोट किसी इंसान को नुकसान नहीं पहुंचाएगा और न ही इंसान को नुकसान पहुंचाएगा, ऐसी कई महत्वपूर्ण बारीकियां हैं जो इस जटिल और कभी-कभी अस्थिर हैं, मेरा विश्लेषण देखें पर यहाँ लिंक.

किसी भी मामले में, यहाँ कुछ और है जिसके लिए असिमोव को भी जाना जाता है, हालाँकि इससे कम: "अपनी नैतिकता की भावना को कभी भी सही काम करने के रास्ते में न आने दें।"

नैतिक एआई के लिए जिसे हम सभी तैयार करने की उम्मीद करते हैं, हमें यह ध्यान रखना होगा कि एआई नैतिकता वह नहीं हो सकती है जिसका हमने अनुमान लगाया था और किसी भी तरह एआई को अभी भी जो कुछ भी सही है उसे करने की आवश्यकता होगी। असिमोव ने ठीक कहा। बहुत पहले अरस्तू भी कुछ इसी तरह की भावनाओं के बारे में सोच रहा था।

स्रोत: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitious-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- मामला-के-साथ-ए-इन-स्वायत्त-स्व-ड्राइविंग-कार/