एआई नैतिकता अनिवार्य रूप से एआई दुर्घटनाओं के साथ कुश्ती, जो स्वायत्त सेल्फ-ड्राइविंग कारों पर भी निर्भर करती है

क्या आप शायद किसी ऐसे व्यक्ति को जानते हैं जो विशेष रूप से दुर्घटना-प्रवण है?

ऐसा लगता है जैसे हम सब करते हैं।

शायद वह व्यक्ति उस प्रकार का है जो केले के छिलके पर फिसल सकता है या आपके लिविंग रूम में रखे किसी कीमती फूलदान को गिरा सकता है। वे किसी न किसी प्रकार की दुर्घटनाओं के लिए एक मानवीय चुंबक हैं। यह इतना बुरा हो सकता है कि कई बार आपको उनके करीब रहने से भी नफरत होने लगती है। आपको उनकी किसी अप्रिय दुर्घटना का अशुभ परिणाम भुगतना पड़ सकता है या अपमानजनक परिणाम भुगतना पड़ सकता है।

लेकिन शायद हम यह सुझाव देते समय अत्यधिक कठोर हो रहे हैं कि कोई भी व्यक्ति दूसरों की तुलना में दुर्घटनाओं के प्रति अधिक संवेदनशील होता है। यह तर्क दिया जा सकता है कि दुर्घटनाएं हममें से किसी के साथ भी हो सकती हैं। हम सभी किसी दुर्घटना में शामिल होने या उसमें शामिल होने की संभावना के अधीन हैं। हममें से सर्वश्रेष्ठ शामिल थे।

आइए इस चर्चा के शीर्ष पर एक अतिरिक्त कष्टप्रद प्रश्न का ढेर लगा दें।

क्या दुर्घटनाएँ अपरिहार्य हैं?

दूसरे शब्दों में, चाहे हम दुर्घटनाओं को रोकने की कितनी भी कोशिश कर लें, यह अपरिहार्य हो सकता है कि फिर भी दुर्घटनाएँ घटित होने की संभावना और अंतिम निश्चितता बनी रहती है। आप दुनिया को दुर्घटनाओं से बचाने का प्रयास कर सकते हैं। यह निःसंदेह विवेकपूर्ण प्रतीत होता है। लेकिन किसी न किसी तरह, दुर्घटनाएं अभी भी अपना बदसूरत सिर उठाए रहेंगी।

जैसा कि वे कहते हैं, दुर्घटनाएँ होने का इंतज़ार कर रही हैं।

यह स्पष्ट करना सहायक हो सकता है कि किसी घटना को उचित रूप से दुर्घटना के रूप में संदर्भित करने का क्या मतलब है। सामान्य शब्दकोश की परिभाषा यह है कि दुर्घटना एक प्रकार की घटना है जो अप्रत्याशित रूप से और अनजाने में घटित होती है, जिसके लिए एक दुर्भाग्यपूर्ण परिणाम होता है जिसमें क्षति या चोट की झलक होती है।

उस परिभाषा को ध्यानपूर्वक खोलें।

उक्त घटना अप्रत्याशित है. इसका तात्पर्य यह है कि हमें इस बात का एहसास नहीं था कि दुर्घटना स्वयं उत्पन्न होगी।

उक्त घटना अनजाने में हुई है. इससे पता चलता है कि हमें उन परिस्थितियों से इंकार करना चाहिए जिनमें किसी ने जानबूझकर घटना घटित करने की कोशिश की हो। यदि कोई मसखरा फर्श पर केले का छिलका रख देता है, जहां उन्हें पता है कि कोई बदकिस्मत और निडर मासूम कदम रख देगा, तो आपके लिए यह कहना मुश्किल हो जाएगा कि उस पर फिसलने वाला व्यक्ति दुर्घटना का शिकार हो गया है। इसके बजाय उन्हें बरगलाया गया और कपटपूर्ण तरीके से जाल में फंसाया गया।

परिभाषा में यह मानदंड भी शामिल है कि परिणाम दुर्भाग्यपूर्ण है। इस आलोक में किसी भी दुर्घटना का परिणाम अवश्य ही खट्टा होगा। जिस व्यक्ति ने गलती से फूलदान को गिरा दिया, उसने संभवतः उस वस्तु को तोड़ दिया है और क्षतिग्रस्त कर दिया है, जिसकी मरम्मत संभव नहीं है। फूलदान के मालिक को मूल्य की हानि से नुकसान होता है। जो व्यक्ति फूलदान में घुस गया, उसे अब नुकसान के लिए मालिक को जिम्मेदार ठहराया जा सकता है। ईश्वर न करे कि फूलदान के टूटने से कोई कट जाए या छिल जाए।

समान संतुलन के लिए, हम यह नोट करना चाहेंगे कि तथाकथित "अच्छी" दुर्घटनाएँ भी होती हैं। किसी दुर्घटना के परिणामस्वरूप कोई व्यक्ति अत्यधिक भाग्यशाली हो सकता है या कोई अन्य महत्वपूर्ण लाभ अर्जित कर सकता है। सबसे अधिक उद्धृत उदाहरणों में से एक सर अलेक्जेंडर फ्लेमिंग और उनकी पेनिसिलिन की प्रशंसित खोज है। कहानी यह है कि वह अपनी प्रयोगशाला में थोड़ा लापरवाह था और दो सप्ताह की छुट्टी से लौटने पर उसे अपनी एक संस्कृति प्लेट पर एक साँचा मिला। कथित तौर पर, उन्होंने इस मामले के बारे में यह कहा: “किसी को कभी-कभी वह चीज़ मिल जाती है जिसकी उसे तलाश नहीं होती। जब मैं 28 सितंबर, 1928 को सुबह होने के ठीक बाद उठा, तो मैंने निश्चित रूप से दुनिया के पहले एंटीबायोटिक, या बैक्टीरिया नाशक की खोज करके सभी चिकित्सा में क्रांति लाने की योजना नहीं बनाई थी। लेकिन मुझे लगता है कि मैंने बिल्कुल यही किया।''

हम अनुकूल दुर्घटनाओं को अलग रख देंगे और निराशाजनक दुर्घटनाओं पर ध्यान केंद्रित करेंगे। दुर्घटनाओं का भौहें चढ़ा हुआ संस्करण वह है जहां वे प्रतिकूल परिणाम विशेष रूप से जीवन के लिए खतरा हो सकते हैं या गंभीर परिणाम हो सकते हैं। जितना संभव हो सके, हम नकारात्मक दुर्घटनाओं को कम करना चाहते हैं (और निश्चित रूप से, प्रतिकूल दुर्घटनाओं को हम अधिकतम करना चाहेंगे, यदि ऐसा करना संभव है, हालांकि मैं बाद के कॉलम में उस स्माइली चेहरे के संस्करण को कवर करूंगा)।

मैं दुर्घटनाओं की अनिवार्यता के बारे में पहले वाले प्रश्न को थोड़ा पुनः संशोधित करना चाहूँगा। अब तक, हमने अपना ध्यान उन दुर्घटनाओं पर केंद्रित रखा है जो किसी एक व्यक्ति के विशेष उदाहरण में घटित होती हैं। इसमें कोई संदेह नहीं है कि दुर्घटनाएं एक साथ कई लोगों को भी प्रभावित कर सकती हैं। इसका सामना विशेष रूप से तब किया जा सकता है जब लोग किसी न किसी प्रकार की जटिल प्रणाली में डूबे हों।

पहले पूछे गए प्रश्न के एक प्रकार के लिए स्वयं को तैयार करें।

क्या सिस्टम दुर्घटनाएँ अपरिहार्य हैं?

हमें इस पर विचार करना चाहिए.

मान लीजिए कि कारों के पुर्जे बनाने के लिए एक कारखाने का फर्श बिछाया गया है। मान लीजिए कि कारखाने को डिज़ाइन करने वाले श्रमिक दुर्घटनाओं के बारे में अत्यधिक चिंतित हैं जो घटित हो सकती हैं। फैक्ट्री कर्मचारियों को हर समय हेलमेट पहनना आवश्यक है। फ़ैक्टरी में लगे संकेत दुर्घटनाओं से सावधान रहने और अपने काम में सचेत रहने का उपदेश देते हैं। दुर्घटनाओं को रोकने के लिए सभी प्रकार की सावधानियां बरती जाती हैं।

इस प्रणाली में, हम आशा कर सकते हैं कि कभी भी किसी के साथ कोई दुर्घटना नहीं होगी। क्या आप मानते हैं कि दुर्घटना होने की शून्य संभावना है? मैं यह सुझाव देने का साहस करूंगा कि कोई भी उचित विचारक यह शर्त नहीं लगाएगा कि इस मामले में दुर्घटना की संभावना शून्य है। दुर्घटना होने की संभावना वास्तव में कम हो सकती है, फिर भी हम अभी भी जानते हैं और मानते हैं कि सभी सावधानियों के बावजूद अभी भी दुर्घटना होने का थोड़ा जोखिम है।

यह सब इस विचार की ओर इशारा करता है कि पर्याप्त जटिलता की प्रणाली में हम यह मानने के लिए बाध्य हैं कि दुर्घटनाएँ अभी भी घटित होंगी, भले ही हम उन्हें रोकने की कितनी भी कोशिश कर लें। हम अनिच्छा से इस शर्त पर अपना समर्थन दे रहे हैं कि सिस्टम दुर्घटनाएँ वास्तव में अपरिहार्य हैं। इस क्षमता के एक भव्य बयान में एक चेतावनी हो सकती है कि सिस्टम को कुछ हद तक जटिलता की होनी चाहिए ताकि दुर्घटनाओं को पूरी तरह से रोकने के लिए सभी आधारों को कवर करना अनिवार्य रूप से असंभव हो।

अब आपको दुर्घटनाओं के बारे में एक व्यापक रूप से उल्लिखित सिद्धांत से धीरे-धीरे परिचित कराया गया है जिसे सामान्य दुर्घटनाएं या सामान्य दुर्घटना सिद्धांत (एनएटी) के रूप में लेबल किया जा सकता है। यहां उन शोधकर्ताओं का एक आसान विवरण दिया गया है जिन्होंने इस धारणा की जांच की है: "बड़े पैमाने पर, कोई भी प्रणाली 'सामान्य दुर्घटनाएं' उत्पन्न करेगी। ये अपरिहार्य दुर्घटनाएँ हैं जो जटिलता, घटकों के बीच युग्मन और संभावित नुकसान के संयोजन के कारण होती हैं। एक सामान्य दुर्घटना अधिक सामान्य घटक विफलता दुर्घटनाओं से भिन्न होती है जिसमें सामान्य दुर्घटना की ओर ले जाने वाली घटनाएं और इंटरैक्शन सिस्टम के ऑपरेटरों के लिए समझ में नहीं आती हैं" (जैसा कि रॉबर्ट विलियम्स द्वारा "एआई विफलताओं को समझना और उनसे बचना: एक व्यावहारिक मार्गदर्शिका" में कहा गया है) रोमन यमपोलस्की, दर्शन जर्नल).

जिस कारण से मैं तुम्हें तथाकथित की भूमि पर लाया हूँ सामान्य दुर्घटनाएँ बात यह है कि हमें इस सिद्धांत को उस चीज़ पर सावधानीपूर्वक लागू करने की आवश्यकता हो सकती है जो धीरे-धीरे और अनिवार्य रूप से हमारे समाज में सर्वव्यापी हो रही है, अर्थात् आर्टिफिशियल इंटेलिजेंस (एआई) का आगमन।

आइये इसकी गहराई से पड़ताल करें।

कुछ लोग गलत धारणा रखते हैं कि एआई पूर्णता लाने वाला है। अटकलें हैं कि एआई सिस्टम गलतियां नहीं करेगा और हमें परेशानी में नहीं डालेगा। आपको बस यह सुनिश्चित करना है कि वे एआई डेवलपर काफी अच्छा काम करें, और देखा जाए तो एआई कभी भी ऐसा कुछ नहीं करेगा जिसे आकस्मिक या दुर्घटना को जन्म देने वाला माना जा सकता है।

उस काल्पनिक विश्वास पर इतनी जल्दी नहीं। यदि आप के सिद्धांत में खरीदने के इच्छुक हैं सामान्य दुर्घटनाएँ, किसी भी वास्तविक जटिलता का कोई भी एआई अनिवार्य रूप से एक दुर्घटना लाएगा। भले ही एआई डेवलपर्स किसी दुर्घटना को रोकने के लिए देर रात तक कितनी भी छेड़छाड़ क्यों न करें, एआई निश्चित रूप से किसी समय दुर्घटना में उलझ जाएगा। इस तरह कुकी टूट जाती है। और इसके बारे में हमारे गिरे हुए दूध में रोने से कोई राहत नहीं है।

एआई के मिश्रण और इसके वैचारिक सिद्धांतों पर विचार करें सामान्य दुर्घटनाएँ.

कल्पना करें कि हमारे पास एक एआई प्रणाली है जो परमाणु हथियारों को नियंत्रित करती है। एआई को सावधानीपूर्वक तैयार किया गया है। प्रत्येक कल्पनीय जांच और संतुलन को एआई प्रणाली में कोडित किया गया है। क्या हम एआई-आधारित दुर्घटना से सुरक्षित हैं जो घटित हो सकती है? जो लोग सामान्य दुर्घटनाओं के दृष्टिकोण का समर्थन करते हैं वे कहेंगे कि हम उतने सुरक्षित नहीं हैं जितना सोचा जा सकता है। यह देखते हुए कि एआई विशेष रूप से जटिल होने की संभावना है, एक सामान्य दुर्घटना चुपचाप किसी दिन सामने आने का इंतजार कर रही है, शायद सबसे खराब क्षण में।

उन कांटेदार सवालों और शंकाओं का सार यह है कि हमें सतर्क रहना चाहिए कि एआई दुर्घटना-ग्रस्त होने के लिए बाध्य है, और मानव जाति को उन खतरों के बारे में कुछ समझदार और सक्रिय करना होगा जो उत्पन्न हो सकते हैं। जैसा कि आप एक या दो पल में देखेंगे, जब एआई का उपयोग करने की बात आती है तो यह एक प्रमुख विचार है, और एआई एथिक्स और एथिकल एआई का क्षेत्र इस बारे में काफी कुश्ती कर रहा है कि क्या करना है। एआई एथिक्स और एथिकल एआई के मेरे चल रहे और व्यापक कवरेज के लिए, देखें यहाँ लिंक और यहाँ लिंक, कुछ लोगों का नाम बताने के लिए।

इससे पहले कि हम उलझन में पड़ें, आइए सुनिश्चित करें कि हम एआई की प्रकृति के बारे में एक ही राय रखते हैं। आज कोई भी ऐसा AI नहीं है जो संवेदनशील हो। हमारे पास ये नहीं है. हम नहीं जानते कि क्या संवेदनशील एआई संभव होगा। कोई भी सटीक रूप से भविष्यवाणी नहीं कर सकता है कि हम संवेदनशील एआई प्राप्त करेंगे या नहीं, न ही संवेदनशील एआई किसी तरह चमत्कारिक रूप से स्वचालित रूप से कम्प्यूटेशनल संज्ञानात्मक सुपरनोवा (आमतौर पर विलक्षणता के रूप में जाना जाता है) के रूप में उत्पन्न होगा, मेरी कवरेज देखें यहाँ लिंक).

जिस प्रकार के एआई पर मैं ध्यान केंद्रित कर रहा हूं वह गैर-संवेदी एआई है जो आज हमारे पास है। अगर हम बेतहाशा अटकलें लगाना चाहते हैं संवेदनशील एआई, यह चर्चा बिल्कुल अलग दिशा में जा सकती है। एक संवेदनशील AI संभवतः मानवीय गुणवत्ता वाला होगा। आपको इस बात पर विचार करना होगा कि संवेदनशील एआई आपको सलाह देने वाले मानव के संज्ञानात्मक समकक्ष है। इससे भी अधिक, चूंकि कुछ लोग अनुमान लगाते हैं कि हमारे पास सुपर-इंटेलिजेंट एआई हो सकता है, इसलिए यह कल्पना की जा सकती है कि ऐसा एआई इंसानों की तुलना में अधिक स्मार्ट हो सकता है (संभावना के रूप में सुपर-इंटेलिजेंट एआई की मेरी खोज के लिए, देखें) यहाँ कवरेज). सभी ने बताया कि ये परिदृश्य स्रोत के मूल्यांकन को तेज़ कर देंगे।

आइए चीजों को और नीचे रखें और आज के कम्प्यूटेशनल गैर-संवेदी एआई पर विचार करें।

यह समझें कि आज की एआई मानव सोच के बराबर किसी भी तरह से "सोचने" में सक्षम नहीं है। जब आप एलेक्सा या सिरी के साथ बातचीत करते हैं, तो बातचीत की क्षमताएं मानवीय क्षमताओं के समान लग सकती हैं, लेकिन वास्तविकता यह है कि यह कम्प्यूटेशनल है और इसमें मानवीय संज्ञान का अभाव है। एआई के नवीनतम युग ने मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) का व्यापक उपयोग किया है, जो कम्प्यूटेशनल पैटर्न मिलान का लाभ उठाता है। इसने एआई सिस्टम को जन्म दिया है जिसमें मानव जैसी प्रवृत्ति दिखाई देती है। इस बीच, आज ऐसा कोई एआई नहीं है जिसमें सामान्य ज्ञान की झलक हो और न ही मजबूत मानवीय सोच का कोई संज्ञानात्मक आश्चर्य हो।

आप शायद जानते होंगे कि जब एआई का नवीनतम युग शुरू हुआ तो जिसे कुछ लोग अब कहते हैं, उसके प्रति भारी उत्साह था एआई फॉर गुड. दुर्भाग्य से, उस भीषण उत्साह की ऊँची एड़ी के जूते पर, हमने देखना शुरू कर दिया एआई फॉर बैड. उदाहरण के लिए, विभिन्न एआई-आधारित चेहरे की पहचान प्रणालियों को नस्लीय पूर्वाग्रहों और लिंग पूर्वाग्रहों के रूप में प्रकट किया गया है, जिनकी मैंने चर्चा की है यहाँ लिंक.

के खिलाफ वापस लड़ने के प्रयास एआई फॉर बैड सक्रिय रूप से चल रहे हैं। मुखर के अलावा कानूनी गलत कामों पर लगाम लगाने के लिए, एआई नैतिकता को सही करने के लिए एआई एथिक्स को अपनाने की दिशा में भी एक महत्वपूर्ण धक्का है। धारणा यह है कि हमें एआई के विकास और क्षेत्ररक्षण के लिए प्रमुख नैतिक एआई सिद्धांतों को अपनाना और उनका समर्थन करना चाहिए ताकि यह कम हो सके। एआई फॉर बैड और साथ ही साथ बेहतर को बढ़ावा देना और बढ़ावा देना एआई फॉर गुड.

संबंधित धारणा पर, मैं एआई संकट के समाधान के हिस्से के रूप में एआई का उपयोग करने की कोशिश करने का एक समर्थक हूं, उस तरह की सोच में आग से आग से लड़ रहा हूं। उदाहरण के लिए हम नैतिक एआई घटकों को एआई सिस्टम में एम्बेड कर सकते हैं जो निगरानी करेगा कि बाकी एआई कैसे काम कर रहा है और इस प्रकार संभावित रूप से किसी भी भेदभावपूर्ण प्रयासों को वास्तविक समय में पकड़ सकता है, मेरी चर्चा देखें यहाँ लिंक. हमारे पास एक अलग एआई सिस्टम भी हो सकता है जो एक प्रकार के एआई एथिक्स मॉनिटर के रूप में कार्य करता है। एआई सिस्टम एक ओवरसियर के रूप में कार्य करता है ताकि पता लगाया जा सके कि कोई अन्य एआई अनैतिक रसातल में जा रहा है (ऐसी क्षमताओं का मेरा विश्लेषण यहां देखें) यहाँ लिंक).

सभी ने बताया, एक सामान्य आशा यह है कि एआई नैतिकता के सिद्धांतों की भावना स्थापित करके हम कम से कम इस बारे में सामाजिक जागरूकता बढ़ाने में सक्षम होंगे कि एआई क्या फायदेमंद कर सकता है और प्रतिकूल परिणाम भी दे सकता है। मैंने एआई नैतिकता सिद्धांतों के विभिन्न सामूहिक विश्लेषणों पर विस्तार से चर्चा की है, जिसमें शोधकर्ताओं द्वारा तैयार किए गए एक सेट को शामिल किया गया है, जिसमें "एआई एथिक्स दिशानिर्देशों का वैश्विक परिदृश्य" (प्रकाशित) शीर्षक वाले एक पेपर में कई राष्ट्रीय और अंतर्राष्ट्रीय एआई नैतिकता सिद्धांतों के सार की जांच और संक्षेपण किया गया है। में प्रकृति), और यह कि मेरा कवरेज यहां पर पड़ताल करता है यहाँ लिंक, जिसने इस कीस्टोन सूची का नेतृत्व किया:

  • ट्रांसपेरेंसी
  • न्याय और निष्पक्षता
  • गैर-नुकसान
  • उत्तरदायित्व
  • निजता
  • उपकार
  • स्वतंत्रता और स्वायत्तता
  • ट्रस्ट
  • स्थिरता
  • गौरव
  • एकजुटता

जैसा कि आप सीधे अनुमान लगा सकते हैं, इन सिद्धांतों के तहत विशिष्टताओं को निर्धारित करने की कोशिश करना बेहद कठिन हो सकता है। इससे भी अधिक, उन व्यापक सिद्धांतों को पूरी तरह से मूर्त और विस्तृत रूप से उपयोग करने के प्रयास में एआई सिस्टम को क्राफ्ट करते समय उपयोग करने का प्रयास भी दरार करने के लिए एक कठिन अखरोट है। एआई एथिक्स के नियम क्या हैं और उन्हें आम तौर पर कैसे देखा जाना चाहिए, इसके बारे में कुछ हाथ मिलाना आसान है, जबकि एआई कोडिंग में यह एक अधिक जटिल स्थिति है जो सड़क से मिलने वाली सत्यनिष्ठ रबर है।

एआई एथिक्स सिद्धांतों का उपयोग एआई डेवलपर्स द्वारा किया जाना चाहिए, साथ ही एआई विकास प्रयासों का प्रबंधन करने वाले, और यहां तक ​​​​कि वे भी जो अंततः एआई सिस्टम पर क्षेत्र और रखरखाव करते हैं। विकास और उपयोग के पूरे एआई जीवन चक्र में सभी हितधारकों को नैतिक एआई के स्थापित मानदंडों के पालन के दायरे में माना जाता है। यह एक महत्वपूर्ण हाइलाइट है क्योंकि सामान्य धारणा यह है कि "केवल कोडर्स" या एआई प्रोग्राम करने वाले एआई एथिक्स धारणाओं का पालन करने के अधीन हैं। जैसा कि पहले कहा गया है, एआई को विकसित करने और क्षेत्र में लाने के लिए एक गाँव की आवश्यकता होती है, और जिसके लिए पूरे गाँव को एआई एथिक्स के नियमों से वाकिफ और उसका पालन करना पड़ता है।

हमें प्रशंसित एआई एथिक्स लिस्टिंग में जोड़ने की आवश्यकता हो सकती है, जिस पर हमें एआई-आधारित को रोकने या कम से कम सख्ती से कम करने के लिए स्पष्ट रूप से विचार करने और प्रत्यक्ष कार्रवाई करने की आवश्यकता है। सामान्य दुर्घटनाएँ ऐसा हो सकता है. जो लोग एआई विकसित करते हैं उन्हें उस मोर्चे पर अपना सर्वश्रेष्ठ प्रदर्शन करने की आवश्यकता है। जो लोग एआई तैनात करते हैं उन्हें भी ऐसा ही करने की जरूरत है। जो लोग एआई का उपयोग करते हैं या किसी तरह से इसके अधीन हैं, उन्हें सावधान रहना चाहिए और एआई दुर्घटनाओं की संभावना से सावधान रहना चाहिए जो उत्पन्न होने वाली हैं।

आप यह सोचकर प्रलोभित हो सकते हैं कि एआई में इतनी सावधानियां बरती जा सकती हैं कि दुर्घटना की संभावना शून्य हो जाए। जो लोग तकनीकी विशेषज्ञ हैं, उनके लिए सामान्य अहंकार यह है कि यदि तकनीक का एक टुकड़ा समस्या उत्पन्न कर सकता है, तो तकनीक का दूसरा टुकड़ा निश्चित रूप से समस्या का समाधान कर सकता है। जब तक समस्या दूर न हो जाए तब तक अधिक से अधिक तकनीक का इस्तेमाल करते रहें।

खैर, जिन लोगों ने सिस्टम-उन्मुख दुर्घटनाओं का अध्ययन किया है, वे असहमत होंगे और स्विस चीज़ मॉडल (एससीएम) के रूप में जाना जाने वाला एक दृष्टिकोण पेश करके कथित तकनीकी धूमधाम का विनम्रतापूर्वक जवाब देंगे: "एससीएम में, सुरक्षा की परतों को टुकड़ों के रूप में तैयार किया जाता है। छेद वाला पनीर सुरक्षा की प्रत्येक परत में कमजोर बिंदुओं का प्रतिनिधित्व करता है। समय के साथ, छेद आकार बदलते हैं और इधर-उधर घूमते हैं। अंततः, इससे कोई फर्क नहीं पड़ता कि पनीर के कितने टुकड़े (सुरक्षा की परतें) हैं, छेद संरेखित हो जाएंगे जिससे पनीर के सभी स्लाइस के माध्यम से एक सीधा शॉट लग सकेगा (एक दुर्घटना होती है)" (रॉबर्ट विलियम्स और रोमन यमपोलस्की द्वारा पहले उद्धृत पेपर के अनुसार) ).

मैं इस विषय में उलझना नहीं चाहता कि दुर्घटना की किसी भी संभावना को पूरी तरह और हमेशा टालने के लिए एआई को प्रोग्राम करने का कोई गारंटीकृत तरीका है या नहीं। गणितीय और कम्प्यूटेशनल सिद्ध करने के सभी तरीके मौजूद हैं जिनका प्रयास किया जा रहा है। मुझे लगता है कि यह घोषित करना उचित और न्यायसंगत है कि आज हमारे पास कोई स्केलेबल कार्य पद्धति नहीं है और न ही ऐसी तकनीकें हैं जो इस तरह के शून्य मौके की गारंटी दे सकें, साथ ही हम निश्चित रूप से टनों एआई से बंधे हुए हैं जो कि पेल-मेल द्वारा उत्पादित किया जा रहा है। निश्चित रूप से पता है कि उसने ऐसी प्रथाओं का पालन करने की मांग नहीं की है। वह बाद वाला बिंदु महत्वपूर्ण है क्योंकि भले ही हम एआई प्रयोगशाला में कुछ गढ़ सकते हैं, लेकिन इसे अनगिनत जंगली और लापरवाह एआई प्रयासों तक बढ़ा सकते हैं और यह उभरता रहेगा, यह एक पेचीदा मुद्दा है और इसे हल करने की संभावना नहीं है, भले ही एक कम्प्यूटेशनल साबित करने वाली मशीन चांदी हो गोली मौजूद थी.

एक और बिंदु जिसके बारे में मेरा मानना ​​है कि संक्षेप में उल्लेख करना आवश्यक है, वह है एआई, जो दुर्भावनापूर्ण मानव अभिनेताओं के परिणामस्वरूप अप्रिय कार्य करने में बदल जाता है। मैं उन घटनाओं को एआई दुर्घटनाओं के दायरे में नहीं रखने जा रहा हूं। याद रखें कि शुरुआती चर्चा में सुझाव दिया गया था कि दुर्घटना की शब्दकोषीय परिभाषा एक घटना थी अनजाने में प्रकृति। यदि कोई मानव साइबरक्रूक बुरे काम करने के लिए एआई सिस्टम प्राप्त करने में कामयाब हो जाता है, तो मैं उस एआई को दुर्घटना का अनुभव करने के रूप में वर्गीकृत नहीं करता हूं। मुझे विश्वास है कि आप उस अनुमान के साथ चलेंगे।

एक दिलचस्प सवाल यह उठता है कि विभिन्न एआई अप्रिय कार्रवाइयों में से कितने को विशुद्ध रूप से एआई दुर्घटना बनाम साइबर अपराधी के कुटिल कृत्य के लिए जिम्मेदार ठहराया जा सकता है। मौजूदा एआई घटनाओं की रिपोर्टिंग करने वाले कुछ डेटाबेस के अनुसार, ऐसा प्रतीत होता है कि एआई दुर्घटनाएं दुर्भावनापूर्ण रूप से प्रेरित घटनाओं की तुलना में अधिक होती हैं, हालांकि आपको उस धारणा को नमक की भारी खुराक के साथ लेना होगा। मैं ऐसा इसलिए कह रहा हूं क्योंकि जब किसी एआई सिस्टम पर हमला होता है तो रिपोर्ट न करने का बड़ा प्रलोभन होता है, और शायद एआई दुर्घटना होने पर रिपोर्ट करने के लिए कुछ हद तक अधिक इच्छुक होते हैं।

एआई दुर्घटनाओं के संबंध में हमें एक अत्यंत महत्वपूर्ण चेतावनी पर चर्चा करने की आवश्यकता है।

"एआई दुर्घटनाएं" वाक्यांश का उपयोग आम तौर पर अवांछनीय है और यह हम सभी के लिए, यानी पूरे समाज के लिए काफी गड़बड़ी पैदा करने वाला है। जब किसी इंसान के साथ कोई दुर्घटना होती है, तो हम अक्सर कंधे उचकाते हैं और उस व्यक्ति के प्रति सहानुभूति रखते हैं जिसके साथ दुर्घटना हुई है। ऐसा प्रतीत होता है कि हम "दुर्घटना" शब्द को ऐसे मानते हैं मानो इसका अर्थ यह है कि जो कुछ हुआ उसके लिए कोई भी ज़िम्मेदार नहीं है।

आइए एक कार दुर्घटना का उदाहरण लें। एक कार दाहिनी ओर मुड़ती है और गलती से सीधे आगे जा रही दूसरी कार से टकरा जाती है। ओह, यह सिर्फ एक दुर्घटना थी और आकस्मिक रूप से घटित हुई। जो लोग इस घटना में शामिल नहीं थे, वे शायद मामले को टलने देंगे यदि घटना को महज एक दुर्घटना मानकर छोड़ दिया जाए।

हालाँकि, मुझे लगता है कि यदि आप उस कार में होते जो टक्कर का शिकार हुई, तो आप उस ड्राइवर के प्रति इतने सहानुभूतिपूर्ण नहीं होते जिसने बहुत अधिक मोड़ लिया। आपकी राय निश्चित रूप से यह होगी कि दूसरा ड्राइवर एक घटिया ड्राइवर था और या तो स्पष्ट रूप से अवैध या मूर्खतापूर्ण ड्राइविंग कार्य के कारण कार दुर्घटना हुई। इस घटना को "दुर्घटना" करार देने से जो ड्राइवर फंस गया था, वह अब कुछ हद तक नुकसान में है क्योंकि ऐसा प्रतीत होता है कि यह सब गलती करने वाले ड्राइवर के हाथों के बजाय अकेले ही घटित हुआ।

वास्तव में, "दुर्घटना" शब्द इतने अलग-अलग अर्थों से भरा हुआ है कि कार दुर्घटनाओं पर सरकारी आंकड़े कार दुर्घटना वाक्यांश का उपयोग करने के बजाय मामले को कार टक्कर या कार दुर्घटना के रूप में संदर्भित करते हैं। कार की टक्कर या कार दुर्घटना का इस बात पर कोई प्रभाव नहीं पड़ता कि घटना कैसे घटित हुई। इस बीच, "कार दुर्घटना" का शब्दांकन हमें लगभग यह सोचने पर मजबूर कर देता है कि यह भाग्य की एक विचित्रता थी या किसी तरह मानव जाति के हाथों से बाहर थी।

आप बहुतायत से देख सकते हैं कि एआई दुर्घटनाओं का जिक्र करते समय यह सांकेतिक विचार कैसे काम आता है। हम नहीं चाहते कि एआई डेवलपर्स इस सांकेतिक ढाल के पीछे छिप जाएं कि एआई ने गलती से किसी को नुकसान पहुंचाया है। यही बात उन लोगों पर भी लागू होती है जो एआई तैनात करते हैं। आप यह तर्क दे सकते हैं कि "एआई दुर्घटनाओं" का वाक्यांश लगभग एआई का एक मानवरूपीकरण है जो समाज को एआई के पर्दे के पीछे के मनुष्यों को जवाबदेही से बचने की अनुमति देने के लिए गुमराह करेगा। मनुष्यों को उनके एआई के लिए जिम्मेदार ठहराने के बढ़ते महत्व के बारे में मेरी चर्चा के लिए, मेरी चर्चा देखें इस लिंक यहाँ और इस लिंक यहाँ.

मैं अब से एआई दुर्घटनाओं के कैचफ्रेज़ का उपयोग करने जा रहा हूं, लेकिन मैं ऐसा अनिच्छा से और केवल इसलिए करता हूं क्योंकि यह इस घटना को संदर्भित करने का पारंपरिक तरीका है। इसे अलग ढंग से कहने का प्रयास अफसोसजनक रूप से अधिक फूला हुआ होता है और पढ़ने में उतना आसान नहीं होता है। कृपया सुनिश्चित करें कि कैचफ्रेज़ की व्याख्या इस तरह से की जाए जिससे आपको दूसरी तरफ देखने की ज़रूरत न पड़े और यह एहसास न हो कि एआई के गड़बड़ होने पर एआई के अंतर्निहित मनुष्य दोषी हैं।

एआई को होने वाली दुर्घटनाओं के रूप में संदर्भित करने के संभावित भ्रम या भ्रामक पहलुओं को स्पष्ट करने में मदद के लिए हम फूलदान को खटखटाने के बारे में अपनी टिप्पणियों पर लौट सकते हैं। एआई के ऐसा करने के इस उदाहरण पर विचार करें: “यह समस्या उन चीजों से संबंधित है जो एआई द्वारा दुर्घटनावश या उदासीनता से की जाती हैं। एक सफाई रोबोट का फूलदान को खटखटाना इसका एक उदाहरण है। जटिल वातावरण में इतने प्रकार के 'फूलदान' होते हैं कि हम सभी दुष्प्रभावों के लिए जुर्माना लगाने में सक्षम होने की संभावना नहीं रखते हैं” (रॉबर्ट विलियम्स और रोमन यमपोलस्की के पेपर के अनुसार)।

एक एआई प्रणाली जिसे एक घर में उपयोग में लाया जाता है और फिर "गलती से" एक फूलदान पर दस्तक देती है, ऐसा प्रतीत होता है कि एआई की इस प्रतिकूल कार्रवाई के लिए किसी को भी दोषी नहीं ठहराया जाना चाहिए। यह महज एक दुर्घटना थी, कोई भी इसकी निंदा कर सकता है। दूसरी ओर, हमें उचित रूप से पूछना चाहिए कि एआई सिस्टम को सामान्य रूप से फूलदान की स्थिति को संभालने के लिए प्रोग्राम क्यों नहीं किया गया। यहां तक ​​​​कि अगर एआई डेवलपर्स ने उन वस्तुओं के दायरे के भीतर एक फूलदान का अनुमान नहीं लगाया था, जिसका सामना किया जा सकता है, तो हम निश्चित रूप से सवाल कर सकते हैं कि कुछ व्यापक वस्तु से बचाव क्यों नहीं किया गया था जो एआई प्रणाली को खटखटाने से रोकता था। फूलदान (इस प्रकार, एआई निश्चित रूप से फूलदान को फूलदान के रूप में वर्गीकृत नहीं कर सकता है, लेकिन फिर भी इसे टालने योग्य वस्तु के रूप में टाला जा सकता है)।

मैंने भविष्यवाणी की है और भविष्यवाणी करना जारी रखा है कि हम धीरे-धीरे एआई सिस्टम के उद्भव पर एक विशाल कानूनी लड़ाई की ओर बढ़ रहे हैं जो खुद को "एआई दुर्घटनाओं" में डाल देते हैं और किसी प्रकार का नुकसान पहुंचाते हैं। अब तक, समाज ने एआई पर कानूनी रूप से दबाव डालने के लिए किसी भी बड़े पैमाने पर प्रतिक्रिया नहीं दी है जो बाजार में फैल गया है और इरादे से या अनजाने में प्रतिकूल परिणाम उत्पन्न करता है। आज का एआई बैंडवैगन, जो आधे-अधूरे एआई निर्माताओं का स्वर्णिम समूह बन गया है और जो लोग एआई परिनियोजन को जल्दबाजी में लागू करते हैं, वे अभी भाग्यशाली हो रहे हैं और नागरिक मुकदमों और आपराधिक मुकदमों से अपेक्षाकृत अछूते हैं।

एआई-प्रेरित कानूनी प्रतिक्रिया देर-सबेर आने ही वाली है।

आगे बढ़ते हुए, हमें तथाकथित एआई दुर्घटनाओं की अनिवार्यता से निपटने का प्रयास कैसे करना चाहिए?

एक चीज जो हम तुरंत कर सकते हैं वह यह अनुमान लगाने की कोशिश करना है कि एआई दुर्घटनाएं कैसे घटित हो सकती हैं। एआई दुर्घटनाओं का अनुमान लगाकर, हम कम से कम उन्हें कम करने या उनके घटित होने की संभावना को कम करने के साधन खोजने की कोशिश कर सकते हैं। इसके अलावा, हम जगह-जगह रेलिंग लगाने का प्रयास कर सकते हैं ताकि जब कोई एआई दुर्घटना हो, तो प्रदर्शन संबंधी नुकसान की संभावना कम हो जाए।

कारकों का एक उपयोगी सेट जिसका वर्णन पहले उद्धृत शोध लेख में किया गया था एआई विफलताओं को समझना और उनसे बचना: एक व्यावहारिक मार्गदर्शिका इसमें ये गुण शामिल हैं (जैसा कि शोध पत्र से उद्धृत किया गया है):

  • वह सिस्टम जो AI के आउटपुट से प्रभावित होता है।
  • एआई आउटपुट और बड़े सिस्टम के बीच समय की देरी, सिस्टम अवलोकन, मानव ध्यान का स्तर और एआई की खराबी को ठीक करने के लिए ऑपरेटरों की क्षमता।
  • एआई द्वारा नियंत्रित सिस्टम के दुर्भावनापूर्ण उपयोग से अधिकतम क्षति संभव है।
  • एआई के निकट घटकों का युग्मन और अंतःक्रियाओं की जटिलता।
  • एआई और प्रयुक्त अन्य तकनीकों और सिस्टम के ऊर्जा स्तर के बारे में ज्ञान का अंतर।

इस भारी चर्चा के इस मोड़ पर, मैं शर्त लगा सकता हूं कि आप कुछ उदाहरणात्मक उदाहरणों के इच्छुक हैं जो एआई दुर्घटनाओं के विषय को और अधिक स्पष्ट कर सकते हैं। उदाहरणों का एक विशेष और निश्चित रूप से लोकप्रिय सेट है जो मेरे दिल के करीब है। आप देखते हैं, नैतिक और कानूनी प्रभावों सहित एआई पर एक विशेषज्ञ के रूप में मेरी क्षमता में, मुझसे अक्सर यथार्थवादी उदाहरणों की पहचान करने के लिए कहा जाता है जो एआई नैतिकता दुविधाओं को प्रदर्शित करते हैं ताकि विषय की कुछ हद तक सैद्धांतिक प्रकृति को अधिक आसानी से समझा जा सके। सबसे विचारोत्तेजक क्षेत्रों में से एक जो इस नैतिक एआई दुविधा को स्पष्ट रूप से प्रस्तुत करता है वह है एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन। यह विषय पर व्यापक चर्चा के लिए एक उपयोगी उपयोग के मामले या उदाहरण के रूप में काम करेगा।

यहाँ एक उल्लेखनीय प्रश्न है जो विचार करने योग्य है: क्या एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन तथाकथित एआई दुर्घटनाओं के आगमन के बारे में कुछ बताता है और यदि हां, तो यह क्या दर्शाता है?

मुझे प्रश्न को अनपैक करने के लिए एक क्षण का समय दें।

सबसे पहले, ध्यान दें कि एक सच्ची सेल्फ-ड्राइविंग कार में कोई मानव चालक शामिल नहीं है। ध्यान रखें कि असली सेल्फ-ड्राइविंग कारें AI ड्राइविंग सिस्टम से चलती हैं। पहिए पर मानव चालक की आवश्यकता नहीं है, न ही मानव के लिए वाहन चलाने का प्रावधान है। स्वायत्त वाहनों (एवी) और विशेष रूप से सेल्फ-ड्राइविंग कारों के मेरे व्यापक और चल रहे कवरेज के लिए, देखें यहाँ लिंक.

मैं और स्पष्ट करना चाहता हूं कि जब मैं सच्ची सेल्फ-ड्राइविंग कारों का उल्लेख करता हूं तो इसका क्या मतलब होता है।

आत्म ड्राइविंग कारों के स्तर को समझना

स्पष्टीकरण के रूप में, सच्ची आत्म-ड्राइविंग कार वे हैं जहां एआई पूरी तरह से अपने दम पर कार चलाता है और ड्राइविंग कार्य के दौरान कोई मानव सहायता नहीं है।

इन चालक रहित वाहनों को स्तर 4 और स्तर 5 माना जाता है (मेरी व्याख्या देखें) इस लिंक यहाँ), जबकि एक कार जिसमें ड्राइविंग प्रयास को सह-साझा करने के लिए मानव चालक की आवश्यकता होती है, आमतौर पर स्तर 2 या स्तर 3 पर विचार किया जाता है। ड्राइविंग कार्य को सह-साझा करने वाली कारों को अर्ध-स्वायत्त होने के रूप में वर्णित किया जाता है, और आमतौर पर इसमें कई प्रकार के होते हैं स्वचालित ऐड-ऑन जिन्हें ADAS (उन्नत ड्राइवर-सहायता प्रणाली) कहा जाता है।

लेवल 5 पर अभी तक एक सच्ची सेल्फ-ड्राइविंग कार नहीं है, और हम अभी तक यह भी नहीं जानते हैं कि क्या यह हासिल करना संभव होगा, और न ही वहां पहुंचने में कितना समय लगेगा।

इस बीच, लेवल 4 के प्रयास धीरे-धीरे बहुत ही संकीर्ण और चयनात्मक सार्वजनिक सड़क मार्ग के परीक्षणों से गुजरते हुए कुछ कर्षण प्राप्त करने की कोशिश कर रहे हैं, हालांकि इस बात पर विवाद है कि क्या इस परीक्षण को प्रति अनुमति दी जानी चाहिए (हम सभी जीवन-या-मृत्यु गिनी सूअर एक प्रयोग में हैं हमारे राजमार्गों और मार्गों पर हो रही है, कुछ दावेदार, मेरे कवरेज को देखते हैं इस लिंक यहाँ).

चूंकि अर्ध-स्वायत्त कारों के लिए एक मानव चालक की आवश्यकता होती है, इसलिए उन प्रकार की कारों को अपनाना पारंपरिक वाहनों को चलाने की तुलना में अलग नहीं होगा, इसलिए इस विषय पर उनके बारे में कवर करने के लिए प्रति से ज्यादा कुछ नया नहीं है (हालांकि, जैसा कि आप देखेंगे एक पल में, अगले अंक आम तौर पर लागू होते हैं)।

अर्ध-स्वायत्त कारों के लिए, यह महत्वपूर्ण है कि जनता को परेशान करने वाले पहलू के बारे में पूर्वाभास करने की आवश्यकता है, जो हाल ही में उत्पन्न हुई है, अर्थात् उन मानव चालकों के बावजूद जो खुद को स्तर 2 या स्तर 3 कार के सोते हुए वीडियो पोस्ट करते रहते हैं , हम सभी को यह मानने में गुमराह होने से बचने की आवश्यकता है कि चालक अर्ध-स्वायत्त कार चलाते समय ड्राइविंग कार्य से अपना ध्यान हटा सकता है।

आप वाहन के ड्राइविंग क्रियाओं के लिए जिम्मेदार पक्ष हैं, भले ही स्वचालन को स्तर 2 या स्तर 3 में कितना उछाला जाए।

सेल्फ-ड्राइविंग कारें और एआई घटनाएं

लेवल 4 और लेवल 5 के लिए सच सेल्फ-ड्राइविंग वाहन, ड्राइविंग कार्य में शामिल मानव चालक नहीं होंगे।

सभी रहने वाले यात्री होंगे।

एआई ड्राइविंग कर रहा है।

तुरंत चर्चा करने का एक पहलू इस तथ्य पर जोर देता है कि आज के एआई ड्राइविंग सिस्टम में शामिल एआई संवेदनशील नहीं है। दूसरे शब्दों में, AI पूरी तरह से कंप्यूटर-आधारित प्रोग्रामिंग और एल्गोरिदम का एक सामूहिक है, और सबसे अधिक आश्वस्त रूप से उसी तरीके से तर्क करने में सक्षम नहीं है जो मनुष्य कर सकते हैं।

एआई के संवेदनशील नहीं होने के बारे में यह अतिरिक्त जोर क्यों दिया जा रहा है?

क्योंकि मैं यह रेखांकित करना चाहता हूं कि जब एआई ड्राइविंग सिस्टम की भूमिका पर चर्चा हो रही है, तो मैं एआई को मानवीय गुणों का वर्णन नहीं कर रहा हूं। कृपया ध्यान रखें कि इन दिनों एंथ्रोपोमोर्फिफाई एआई के लिए चल रही और खतरनाक प्रवृत्ति है। संक्षेप में, लोग आज के एआई के लिए मानव जैसी भावना प्रदान कर रहे हैं, इसके बावजूद कि इस तरह का एआई अभी तक मौजूद नहीं है।

उस स्पष्टीकरण के साथ, आप कल्पना कर सकते हैं कि एआई ड्राइविंग सिस्टम ड्राइविंग के पहलुओं के बारे में मूल रूप से किसी तरह "जान" नहीं पाएगा। ड्राइविंग और इसके लिए जरूरी सभी चीजों को सेल्फ-ड्राइविंग कार के हार्डवेयर और सॉफ्टवेयर के हिस्से के रूप में प्रोग्राम करना होगा।

आइए इस विषय पर खेलने के लिए आने वाले पहलुओं के बारे में जानें।

सबसे पहले, यह महसूस करना महत्वपूर्ण है कि सभी AI सेल्फ-ड्राइविंग कारें समान नहीं होती हैं। प्रत्येक ऑटोमेकर और सेल्फ-ड्राइविंग टेक फर्म सेल्फ-ड्राइविंग कारों को तैयार करने के लिए अपना दृष्टिकोण अपना रही है। जैसे, एआई ड्राइविंग सिस्टम क्या करेगा या नहीं, इस बारे में व्यापक बयान देना मुश्किल है।

इसके अलावा, जब भी यह कहा जाता है कि एआई ड्राइविंग सिस्टम कुछ खास काम नहीं करता है, तो बाद में, यह डेवलपर्स द्वारा आगे निकल सकता है जो वास्तव में कंप्यूटर को उसी काम करने के लिए प्रोग्राम करता है। कदम दर कदम, एआई ड्राइविंग सिस्टम में धीरे-धीरे सुधार और विस्तार किया जा रहा है। एक मौजूदा सीमा आज भविष्य के पुनरावृत्ति या सिस्टम के संस्करण में मौजूद नहीं हो सकती है।

मुझे विश्वास है कि जो मैं संबंधित करने जा रहा हूं उसे रेखांकित करने के लिए पर्याप्त चेतावनियां प्रदान करता है।

हम अब सेल्फ-ड्राइविंग कारों और तथाकथित एआई दुर्घटनाओं के आगमन से जुड़ी नैतिक एआई संभावनाओं पर गहराई से विचार करने के लिए तैयार हैं।

कल्पना करें कि आपके पड़ोस की सड़कों पर एक एआई-आधारित सेल्फ-ड्राइविंग कार चल रही है और सुरक्षित रूप से चलती दिख रही है। सबसे पहले, जब भी आप सेल्फ-ड्राइविंग कार की एक झलक पाने में कामयाब रहे, आपने उस पर विशेष ध्यान दिया था। स्वायत्त वाहन अपने इलेक्ट्रॉनिक सेंसरों के रैक के साथ खड़ा था जिसमें वीडियो कैमरे, रडार इकाइयां, एलआईडीएआर डिवाइस और इसी तरह के अन्य उपकरण शामिल थे। कई हफ़्तों तक सेल्फ-ड्राइविंग कार आपके समुदाय में घूमने के बाद, अब आप मुश्किल से ही इस पर ध्यान दे पाते हैं। जहां तक ​​आपका सवाल है, यह पहले से ही व्यस्त सार्वजनिक सड़कों पर चलने वाली एक और कार मात्र है।

ऐसा न हो कि आपको लगता है कि सेल्फ-ड्राइविंग कारों को देखने से परिचित होना असंभव या असंभव है, मैंने अक्सर इस बारे में लिखा है कि कैसे सेल्फ-ड्राइविंग कार ट्रायल के दायरे में आने वाले स्थान धीरे-धीरे सजी-धजी गाड़ियों को देखने के आदी हो गए हैं। कई स्थानीय लोग अंततः उन घूमती हुई सेल्फ-ड्राइविंग कारों को देखने के लिए मुंह फुलाने वाली हंसी-ठिठोली से हटकर अब बोरियत की एक विस्तृत उबासी का उत्सर्जन करने लगे हैं।

संभवत: अभी मुख्य कारण यह है कि वे स्वायत्त वाहनों को नोटिस कर सकते हैं क्योंकि जलन और उत्तेजना कारक है। बाय-द-बुक एआई ड्राइविंग सिस्टम सुनिश्चित करते हैं कि कारें सभी गति सीमाओं और सड़क के नियमों का पालन कर रही हैं। अपनी पारंपरिक मानव-चालित कारों में व्यस्त मानव चालकों के लिए, आप कई बार चिड़चिड़े हो जाते हैं जब कड़ाई से कानून का पालन करने वाली एआई-आधारित सेल्फ-ड्राइविंग कारों के पीछे फंस जाते हैं।

यह कुछ ऐसा है जिसे हम सभी को सही या गलत तरीके से अभ्यस्त करने की आवश्यकता हो सकती है।

हमारी कहानी पर वापस जाएँ।

एक दिन सेल्फ-ड्राइविंग कार दुर्घटनाग्रस्त हो जाती है।

दाईं ओर मुड़ते समय, एआई ड्राइविंग सिस्टम ने स्वायत्त वाहन को व्यापक रूप से घुमाया और एक मानव-चालित कार से टकरा गई। मानव चालित कार यातायात की उचित लेन में सीधे आगे बढ़ रही थी। मानव चालक के पास गाड़ी मोड़ने या चपेट में आने से बचने का कोई विशेष अवसर नहीं था। इसके अलावा, सेल्फ-ड्राइविंग कार द्वारा कोई चेतावनी या संकेत नहीं दिया गया था कि वह व्यापक रूप से दाईं ओर मुड़ने वाली थी।

क्या यह एक दुर्घटना है?

हम निश्चित रूप से कह सकते हैं कि यह एआई दुर्घटना के दायरे में आता है। इस तरह के दावे का आधार यह है कि सेल्फ-ड्राइविंग कार के पहिये में एआई ड्राइविंग सिस्टम था। किसी तरह, किसी भी कारण से, एआई ने दाहिनी ओर मुड़ते समय व्यापक स्विंग करने का विकल्प चुना। नतीजा यह हुआ कि सेल्फ-ड्राइविंग कार एक मानव-चालित कार से टकरा गई।

"दुर्घटना" शब्द से जुड़े अर्थों के बारे में पिछली चर्चा को याद करें और देखें कि इस परिदृश्य में ऐसे उपक्रम कैसे काम आते हैं। यह भी याद रखें कि हमने एक मानव चालक द्वारा दाहिनी ओर मुड़ने और साथी मानव-चालित कार से टकराने के मामले पर चर्चा की थी। हमने महसूस किया कि इस अधिनियम के "दुर्घटना" होने की धारणा भ्रामक और भ्रमित करने वाली है। वह मानव चालक जिसने व्यापक झूला बनाया था, इस विचार के पीछे छिप सकता था कि एक दुर्घटना मात्र घटित हुई थी जो संयोगवश या भाग्य की अनिश्चितता से प्रतीत होती थी।

एआई-आधारित सेल्फ-ड्राइविंग कार के व्यापक रूप से आगे बढ़ने और मानव-चालित कार से टकराने के मामले में परिदृश्य को "एआई दुर्घटना" के रूप में लेबल करने के बजाय, शायद हमें यह कहना चाहिए कि यह एक कार दुर्घटना या कार टक्कर थी जिसमें स्वयं-चालित कार शामिल थी। ड्राइविंग कार और मानव-चालित कार। तब हम इस भ्रम से छुटकारा पा सकते हैं कि यह अज्ञात कारणों से हुई दुर्घटना है।

आपके अनुसार इस घटना पर जनता की प्रतिक्रिया क्या होगी?

ठीक है, अगर ऑटोमेकर या सेल्फ-ड्राइविंग टेक फर्म इस मामले को दुर्घटना के रूप में लेबल करने पर अड़े रह सकते हैं, तो वे बड़े पैमाने पर समुदाय से संभावित प्रतिक्रिया को टालने में सक्षम हो सकते हैं। बताई गई सभी दुर्घटनाओं के बारे में सहानुभूति की भावना संभवतः विशेष परिस्थिति में प्रवाहित होगी। शहर, काउंटी और राज्य के नेता एआई स्वायत्त वाहन घटनाओं पर संभावित रूप से कैसे प्रतिक्रिया देंगे, इसके बारे में अधिक जानकारी के लिए हार्वर्ड अध्ययन की चर्चा देखें, जिसका मैंने सह-नेतृत्व किया था और जैसा कि यहां वर्णित है। यहाँ लिंक.

यदि स्थिति को स्पष्ट रूप से कार दुर्घटना या कार टक्कर के रूप में वर्णित किया जाता है, तो शायद इससे यह एहसास हो सकता है कि घटना के लिए शायद कोई व्यक्ति या कोई चीज़ दोषी है। एक त्वरित प्रतिक्रिया यह हो सकती है कि एआई को जिम्मेदार ठहराया जाए। बात यह है कि, जब तक हम एआई को कानूनी व्यक्तित्व की झलक देने का निर्णय नहीं लेते हैं, तब तक आप एआई पर जिम्मेदारी डालने में सक्षम नहीं होंगे (एआई और कानूनी व्यक्तित्व पर मेरी चर्चा देखें)। यहाँ लिंक).

हम एआई ड्राइविंग सिस्टम का निरीक्षण करके यह पता लगाने की कोशिश कर सकते हैं कि किस वजह से अनुचित ड्राइविंग और उसके बाद कार दुर्घटना हुई। हालाँकि इसका मतलब यह नहीं है कि एआई को जवाबदेह ठहराया जाएगा। जिम्मेदार पक्षों में एआई डेवलपर्स, सेल्फ-ड्राइविंग कार के बेड़े संचालक और अन्य शामिल हैं। मैं दूसरों को भी शामिल करता हूं क्योंकि ऐसी संभावना है कि शहर को उस कोने के डिजाइन के लिए आंशिक रूप से जिम्मेदार ठहराया जा सकता है जहां मोड़ हुआ था। इसके अलावा, मान लीजिए कि एक पैदल यात्री कोने से निकल रहा था और एआई ड्राइविंग सिस्टम ने उस व्यक्ति से बचने का विकल्प चुना और फिर भी वह कार दुर्घटना में फंस गया।

और इतने पर.

निष्कर्ष

हम जानना चाहेंगे कि एआई कम्प्यूटेशनल रूप से क्या गणना कर रहा था और इसे क्या करने के लिए प्रोग्राम किया गया था। क्या AI ने वैसा ही किया जैसा कोड किया गया था? हो सकता है कि एआई को प्रोग्रामिंग में किसी बग या त्रुटि का सामना करना पड़ा हो, जो कार्यों को माफ नहीं करता है, लेकिन दुर्घटना कैसे हुई, इसके बारे में अधिक सुराग प्रदान करता है।

एआई ड्राइविंग सिस्टम में किस प्रकार की एआई रेलिंग को प्रोग्राम किया गया था? यदि वहाँ रेलिंग होती, तो हम यह पता लगाना चाहेंगे कि वे कार दुर्घटना को क्यों नहीं रोक पा रहे थे। हो सकता है कि एआई ड्राइविंग सिस्टम मोड़ लेने के बजाय रुक गया हो। हम जानना चाहेंगे कि घटना के दौरान एआई ने कम्प्यूटेशनल रूप से किन विकल्पों का आकलन किया।

विशेष घटना की तह तक जाने के अलावा, एक और उचित चिंता यह है कि क्या एआई ड्राइविंग सिस्टम में कोई दोष या अन्य अंतर्निहित पहलू है जो समान प्रकार के प्रतिकूल कार्य करेगा। संक्षेप में, यह घटना भविष्य में और अधिक घटनाओं का संकेत हो सकती है। इस प्रकार की एआई ड्राइविंग प्रणाली के संकेत का पूर्वानुमान लगाने के लिए ड्राइविंग स्थितियों के कंप्यूटर-आधारित सिमुलेशन का उपयोग कैसे किया गया? क्या एआई मुद्दों का पता लगाने के लिए पर्याप्त सड़क ड्राइविंग परीक्षण थे जो कार दुर्घटना का कारण बन सकते थे?

यह परिदृश्य उस विवादास्पद पहेली को उजागर करता है जो एआई-आधारित सेल्फ-ड्राइविंग कारों के उद्भव का सामना कर रही है।

यह इस प्रकार चलता है।

एक ओर, इस आशा के कारण स्व-ड्राइविंग कारों को तेजी से अपनाने की सामाजिक इच्छा है कि एआई ड्राइविंग सिस्टम मानव चालकों की तुलना में सुरक्षित या संभवतः अधिक सुरक्षित होंगे। अकेले संयुक्त राज्य अमेरिका में, वर्तमान में कार दुर्घटनाओं के कारण सालाना लगभग 40,000 मानव मौतें होती हैं और लगभग 2.5 मिलियन मानव चोटें होती हैं। विश्लेषणों से पता चलता है कि उन कार दुर्घटनाओं का एक बड़ा हिस्सा मानवीय त्रुटियों के कारण होता है जैसे नशे में गाड़ी चलाना, ध्यान भटकते हुए गाड़ी चलाना आदि। (ऐसे आँकड़ों के बारे में मेरा आकलन देखें यहाँ लिंक).

एआई ड्राइविंग सिस्टम शराब पीकर गाड़ी नहीं चलाएगा। उन्हें आराम की ज़रूरत नहीं होगी और गाड़ी चलाते समय वे थकेंगे नहीं। धारणा यह है कि स्व-चालित कारों को परिवहन के व्यवहार्य साधन के रूप में स्थापित करके, हम मानव चालकों की संख्या को कम कर सकते हैं। बदले में इसका मतलब यह होना चाहिए कि हम कार दुर्घटनाओं से वार्षिक मानव मृत्यु और चोटों की संख्या को संक्षेप में कम कर देंगे।

कुछ पंडितों ने कहा है कि हम शून्य मृत्यु और शून्य चोटों के साथ समाप्त होंगे, और वे स्व-चालित कारें कथित तौर पर दुर्घटनाग्रस्त नहीं होंगी, लेकिन यह पूरी तरह से बेतुका और पूरी तरह से झूठी उम्मीद है। मैंने समझाया है कि यह इतना कपटपूर्ण क्यों है यहाँ लिंक.

किसी भी स्थिति में, मान लें कि हमारे पास कुछ मात्रा में कार दुर्घटनाएँ होंगी जिनमें सेल्फ-ड्राइविंग कारें शामिल होंगी। यह भी मान लें कि उन कार दुर्घटनाओं में कुछ मात्रा में मौतें और चोटें होंगी। सवाल यह है कि क्या हम एक समाज के रूप में ऐसी किसी भी घटना को बर्दाश्त करने को तैयार हैं, यह सवाल परेशान कर रहा है। कुछ लोग कहते हैं कि अगर सच्ची सेल्फ-ड्राइविंग कारों के परिणामस्वरूप एक भी मौत या एक चोट होती है, तो पूरी किट और काबूडल को बंद कर देना चाहिए।

विपरीत दृष्टिकोण यह है कि यदि बचाई गई जिंदगियाँ वार्षिक गिनती को कम कर रही हैं, तो हमें स्व-चालित कारों के आगमन को प्रोत्साहित करना जारी रखना चाहिए और इस तरह के अतार्किक तरीके से प्रतिक्रिया नहीं देनी चाहिए। हमें इस आधार को स्वीकार करना होगा कि कुछ मात्रा में मौतें और चोटें अभी भी मौजूद होंगी, यहां तक ​​कि सेल्फ-ड्राइविंग कारों के साथ भी, और फिर भी यह महसूस करना होगा कि यदि वार्षिक संख्या में कमी आती है तो यह पता चलता है कि हम सही रास्ते पर हैं।

बेशक, कुछ लोगों का तर्क है कि हमें अपने सार्वजनिक सड़क मार्गों पर स्व-चालित कारें तब तक नहीं रखनी चाहिए जब तक कि उन्हें व्यापक और संपूर्ण कंप्यूटर-आधारित सिमुलेशन के परिणामस्वरूप या निजी बंद-ट्रैक परीक्षण के माध्यम से इस तरह के उपयोग के लिए मंजूरी नहीं मिल जाती। प्रतिवाद यह है कि सेल्फ-ड्राइविंग कारों को चलाने का एकमात्र व्यवहार्य और सबसे तेज़ तरीका सार्वजनिक सड़क मार्गों का उपयोग करना है और सेल्फ-ड्राइविंग कारों को अपनाने में कोई भी देरी अन्यथा मानव-चालित कारों के दुर्घटनाग्रस्त होने की भयावह घटनाओं को जारी रखने की अनुमति देगी। मैंने अपने कॉलमों में इस बहस को अधिक विस्तार से कवर किया है और पाठकों से आग्रह करता हूं कि वे इस विवादास्पद मामले पर परिप्रेक्ष्य की पूरी समझ प्राप्त करने के लिए उन चर्चाओं को देखें।

आइए अभी के लिए चीजों को समाप्त करें।

एआई दुर्घटनाएं होने वाली हैं। हमें एआई दुर्घटना को उचित मानने के आवेग का विरोध करना चाहिए आकस्मिक और इसलिए निर्माताओं और एआई को तैनात करने वालों को पूरी तरह से खतरे से बाहर कर दिया गया है।

इसमें एक अतिरिक्त मोड़ है जिसे मैं आपके दिन के लिए अंतिम दिलचस्प विचार के रूप में छोड़ता हूं।

कॉमेडियन डेन कुक ने कथित तौर पर कार दुर्घटनाओं के बारे में यह चुटकुला सुनाया था: “कुछ दिन पहले, मैं एक कार दुर्घटना का शिकार हो गया था। मेरी गलती नहीं। भले ही इसमें आपकी गलती न हो, दूसरा व्यक्ति अपनी कार से बाहर निकलता है और आपकी ओर ऐसे देखता है जैसे कि यह आपकी गलती है: आप लाल बत्ती पर क्यों रुके और मुझे 80 मारने दिया!'

जहां मोड़ सामने आता है वह यह संभावना है कि एक एआई सिस्टम इस बात पर जोर देने का विकल्प चुन सकता है कि जब कोई एआई दुर्घटना उस विशेष एआई से जुड़ी होती है, तो एआई यह दावा करता है कि यह घटना मानव की गलती थी और निश्चित रूप से एआई की गलती नहीं थी। वैसे, यह पूरी तरह सच हो सकता है और मानव यह दावा करके एआई को बलि का बकरा बनाने की कोशिश कर रहा होगा कि यह एआई की गलती थी।

या हो सकता है कि एआई इंसान को बलि का बकरा बनाने की कोशिश कर रहा हो।

आप देखिए, हम जो एआई तैयार करते हैं, वह इस तरह से पेचीदा हो सकता है, चाहे दुर्घटनावश हो या नहीं।

स्रोत: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitable-of-ai-accidents- Which-looms-over-autonomous-self- ड्राइविंग-कार-भी/