एआई एथिक्स चौंकाने वाला रहस्योद्घाटन कि एआई को विषाक्त या पक्षपाती होने का प्रशिक्षण फायदेमंद हो सकता है, जिसमें उन स्वायत्त स्व-ड्राइविंग कारों के लिए भी शामिल है

यहाँ एक पुरानी पंक्ति है जो मुझे यकीन है कि आपने पहले सुनी होगी।

जैसा मैं हूं वैसे ही तुम हो।

आपको शायद यह एहसास न हो कि यह एक अभिव्यक्ति है जिसे 1900 के दशक की शुरुआत में खोजा जा सकता है और आमतौर पर गलत काम करने वालों का जिक्र करते समय लागू किया जाता था (कैचफ्रेज़ की अन्य विविधताएं आगे पीछे जाती हैं जैसे कि 1600 के दशक में)। इस कथन का उपयोग कैसे किया जा सकता है इसका एक उदाहरण इस धारणा पर जोर देता है कि यदि आप चोर को पकड़ना चाहते हैं तो आपको ऐसा करने के लिए चोर का उपयोग करना होगा। यह इस दावे को प्रदर्शित करता है कि किसी एक को जानने के लिए एक की आवश्यकता होती है। कई फिल्मों और टीवी शो ने ऋषि ज्ञान के इस आसान बिट को भुनाया है, अक्सर यह चित्रित करते हुए कि एक बदमाश को पकड़ने का एकमात्र व्यवहार्य साधन गलत करने वाले का पीछा करने के लिए समान रूप से भ्रष्ट बदमाश को काम पर रखना है।

गियर बदलते हुए, कुछ लोग इसी तर्क का लाभ उठाकर तर्क दे सकते हैं कि यह समझने का एक उपयुक्त तरीका है कि क्या कोई अनुचित पूर्वाग्रहों और भेदभावपूर्ण विश्वासों को शामिल कर रहा है, किसी ऐसे व्यक्ति को ढूंढना होगा जो पहले से ही ऐसी प्रवृत्तियों को बरकरार रखता है। संभवतः, पहले से ही पूर्वाग्रहों से भरा एक व्यक्ति अधिक आसानी से यह समझने में सक्षम होगा कि यह अन्य मानव भी इसी तरह विषाक्तता से भरा हुआ है। फिर, यह जानने के लिए आवश्यक है कि एक सिद्ध मंत्र है।

किसी अन्य पक्षपाती व्यक्ति को बाहर निकालने के लिए एक पक्षपाती व्यक्ति का उपयोग करने की संभावना पर आपकी प्रारंभिक प्रतिक्रिया संदेह और अविश्वास की हो सकती है। क्या हम यह पता नहीं लगा सकते हैं कि क्या कोई व्यक्ति केवल उनकी जांच करके और समान प्रकृति के किसी अन्य व्यक्ति को खोजने का सहारा नहीं लेता है? जानबूझकर किसी ऐसे व्यक्ति की खोज करना अजीब लगता है जो पक्षपाती है ताकि दूसरों को उजागर किया जा सके जो विषाक्त रूप से पक्षपाती भी हैं।

मुझे लगता है कि यह आंशिक रूप से इस बात पर निर्भर करता है कि क्या आप उस प्रकल्पित परहेज को स्वीकार करने के लिए तैयार हैं जिसे जानने के लिए व्यक्ति को आवश्यकता होती है। ध्यान दें कि इसका मतलब यह नहीं है कि चोर को पकड़ने का एकमात्र तरीका यह है कि आप विशेष रूप से और हमेशा चोर का उपयोग करें। आप यथोचित रूप से तर्क दे सकते हैं कि यह केवल एक अतिरिक्त मार्ग है जिस पर उचित विचार किया जा सकता है। हो सकता है कि कभी-कभी आप चोर को पकड़ने के लिए चोर का उपयोग करने की संभावना का मनोरंजन करने के इच्छुक हों, जबकि अन्य परिस्थितियां इसे एक अथाह रणनीति बना सकती हैं।

जैसा कि वे कहते हैं, सही सेटिंग के लिए सही टूल का उपयोग करें।

अब जब मैंने उन बुनियादी बातों को निर्धारित कर लिया है, तो हम इस कहानी के शायद परेशान करने वाले और जाहिरा तौर पर चौंकाने वाले हिस्से में आगे बढ़ सकते हैं।

क्या आप तैयार हैं?

एआई का क्षेत्र सक्रिय रूप से उसी नियम का पालन कर रहा है जिसे कभी-कभी किसी को जानने में लगता है, विशेष रूप से एआई को बाहर निकालने की कोशिश करने के मामले में जो पक्षपाती है या भेदभावपूर्ण तरीके से कार्य कर रहा है। हां, दिमाग को मोड़ने वाला विचार यह है कि हम जानबूझकर एआई को विकसित करना चाहते हैं जो पूरी तरह से और बिना पक्षपातपूर्ण और भेदभावपूर्ण हो, ऐसा करने के लिए इसे अन्य एआई को खोजने और उजागर करने के साधन के रूप में उपयोग करने के लिए जिसमें विषाक्तता की समान समानता है। जैसा कि आप एक पल में देखेंगे, इस मामले में कई तरह के कष्टप्रद एआई एथिक्स मुद्दे हैं। एआई एथिक्स और एथिकल एआई के मेरे समग्र चल रहे और व्यापक कवरेज के लिए, देखें यहाँ लिंक और यहाँ लिंक, कुछ लोगों का नाम बताने के लिए।

मुझे लगता है कि आप अन्य जहरीले एआई के बाद जाने के लिए जहरीले एआई के इस उपयोग को आग से लड़ने वाली अग्नि अवधारणा के रूप में व्यक्त कर सकते हैं (हम इस स्थिति को चित्रित करने के लिए बहुत सारे व्यंजना और दृष्टांत रूपकों का आह्वान कर सकते हैं)। या, जैसा कि पहले ही जोर दिया जा चुका है, हम इस दावे का उल्लेख कर सकते हैं कि किसी एक को जानने के लिए किसी व्यक्ति को आवश्यकता होती है।

व्यापक अवधारणा यह है कि पारंपरिक तरीकों का उपयोग करके केवल यह पता लगाने की कोशिश करने के बजाय कि क्या किसी दिए गए एआई सिस्टम में अनुचित पूर्वाग्रह हैं, शायद हमें कम पारंपरिक साधनों को भी नियोजित करना चाहिए। ऐसा ही एक अपरंपरागत साधन एआई को विकसित करना होगा जिसमें सभी सबसे खराब पूर्वाग्रह और सामाजिक रूप से अस्वीकार्य विषाक्तताएं हों और फिर इस एआई का उपयोग अन्य एआई को बाहर निकालने में सहायता के लिए करें जिसमें बुराई की समान प्रवृत्ति हो।

जब आप इसे एक त्वरित विचार देते हैं, तो यह निश्चित रूप से पूरी तरह से समझदार प्रतीत होता है। हम एआई का निर्माण करने का लक्ष्य रख सकते हैं जो अधिकतम विषाक्त हो। इस जहरीले एआई का उपयोग अन्य एआई को बाहर निकालने के लिए किया जाता है जिसमें विषाक्तता भी होती है। तत्कालीन प्रकट "खराब" एआई के लिए, हम या तो विषाक्तता को पूर्ववत करके, एआई को पूरी तरह से हटाकर इससे निपट सकते हैं (एआई अव्यवस्था या विनाश का मेरा कवरेज देखें इस लिंक यहाँ), या एआई को कैद करना (एआई कारावास का मेरा कवरेज देखें इस लिंक यहाँ), या जो कुछ भी करने के लिए लागू लगता है वह करें।

एक प्रतिवाद यह है कि हमें अपने सिर की जांच करनी चाहिए कि हम जानबूझकर और स्वेच्छा से एआई तैयार कर रहे हैं जो विषाक्त है और पूर्वाग्रहों से भरा है। यह आखिरी चीज है जिस पर हमें कभी विचार करना चाहिए, कुछ लोग इसे प्रोत्साहित करेंगे। एआई को पूरी तरह से अच्छाई से युक्त बनाने पर ध्यान दें। एआई को विकसित करने पर ध्यान केंद्रित न करें जिसमें अनुचित पूर्वाग्रहों की बुराइयां और दोष हों। इस तरह की खोज की धारणा कुछ के लिए प्रतिकूल लगती है।

इस विवादास्पद खोज के बारे में और भी शिकायतें हैं।

हो सकता है कि जहरीले एआई को तैयार करने का एक मिशन केवल उन लोगों को प्रोत्साहित करेगा जो एआई को तैयार करना चाहते हैं जो समाज को कम करने में सक्षम है। यह ऐसा है जैसे हम कह रहे हैं कि अनुचित और अप्रिय पूर्वाग्रह वाले एआई को तैयार करना पूरी तरह से ठीक है। कोई चिंता नहीं, कोई झिझक नहीं। अपने दिल की सामग्री के लिए जहरीले एआई को तैयार करने की कोशिश करें, हम दुनिया भर के एआई बिल्डरों को जोर-शोर से बता रहे हैं। यह (पलक-पलक) सब अच्छाई के नाम पर है।

इसके अलावा, मान लीजिए कि यह जहरीला एआई प्रकार पकड़ता है। यह हो सकता है कि एआई का उपयोग और कई अन्य एआई बिल्डरों द्वारा पुन: उपयोग किया जाता है। आखिरकार, जहरीले एआई सभी तरह के एआई सिस्टम में छिप जाते हैं। एक मानव-कमजोर करने वाले वायरस को विकसित करने के लिए एक सादृश्य बनाया जा सकता है जो संभवतः एक सीलबंद प्रयोगशाला से बच जाता है। अगली बात जो आप जानते हैं, रफ़ू चीज़ हर जगह है और हमने खुद को मिटा दिया है।

एक सेकंड के लिए प्रतीक्षा करें, उन प्रतिवादों का जवाब दिया जाता है, आप सभी प्रकार के पागल और असमर्थित अनुमानों के साथ भाग रहे हैं। गहरी साँस लेना। अपने आपको शांत करो।

हम सुरक्षित रूप से एआई को विषाक्त बना सकते हैं और इसे सीमित रख सकते हैं। हम एआई के बढ़ते प्रसार को कम करने में मदद करने के लिए जहरीले एआई का उपयोग कर सकते हैं, दुर्भाग्य से इसमें अनुचित पूर्वाग्रह हैं। इनमें से कोई भी बेतुका जंगली और निराधार स्नोबॉलिंग विस्मयादिबोधक विशुद्ध रूप से घुटने के बल चलने वाली प्रतिक्रियाएं हैं और अफसोस की बात है कि मूर्खतापूर्ण और पूरी तरह से मूर्खतापूर्ण है। बच्चे को नहाने के पानी से बाहर फेंकने की कोशिश न करें, आपको चेतावनी दी जाती है।

इसे इस तरह से सोचें, समर्थकों का विरोध है। अनुसंधान, मूल्यांकन, और अन्य सामाजिक रूप से आक्रामक एआई को उजागर करने के लिए एक जासूस की तरह काम करने के लिए विषाक्त एआई का उचित निर्माण और उपयोग एक योग्य दृष्टिकोण है और इसे अपनाए जाने पर इसका उचित झटका मिलना चाहिए। अपनी रैश प्रतिक्रियाओं को एक तरफ रख दें। धरती पर उतर आओ और इसे गंभीरता से देखो। हमारी नजर पुरस्कार पर है, अर्थात् पक्षपाती-आधारित एआई प्रणालियों की भरमार को उजागर करना और पूर्ववत करना और यह सुनिश्चित करना कि एक समाज के रूप में हम जहरीले एआई से अधिक न हो जाएं।

अवधि। पूर्ण विराम।

लाभकारी उद्देश्यों के लिए विषाक्त या पक्षपाती एआई के उपयोग की इस धारणा में तल्लीन करने के विभिन्न मुख्य तरीके हैं, जिनमें शामिल हैं:

  • सेट अप डेटासेट जिसमें जानबूझकर पक्षपाती और पूरी तरह से विषाक्त डेटा होता है जिसका उपयोग एआई को प्रशिक्षण देने के लिए किया जा सकता है कि क्या नहीं करना है और/या क्या देखना है
  • मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) मॉडल को पूर्वाग्रहों का पता लगाने और सामाजिक विषाक्तता को शामिल करने वाले कम्प्यूटेशनल पैटर्न का पता लगाने के लिए ऐसे डेटासेट का उपयोग करें।
  • यह पता लगाने के लिए कि लक्षित एआई संभावित पक्षपाती और विषाक्त है या नहीं, विषाक्तता प्रशिक्षित एमएल/डीएल को अन्य एआई की ओर लागू करें
  • एआई बिल्डरों को दिखाने के लिए विषाक्तता प्रशिक्षित एमएल / डीएल उपलब्ध कराएं ताकि वे आसानी से मॉडल का निरीक्षण कर सकें कि एल्गोरिदमिक रूप से प्रभावित पूर्वाग्रह कैसे उत्पन्न होते हैं
  • एआई एथिक्स और एथिकल एआई जागरूकता के हिस्से के रूप में जहरीले एआई के खतरों का उदाहरण दें, इस समस्या के माध्यम से सभी को बताया गया है- उदाहरण के बच्चों की बुरी-टू-द-बोन एआई श्रृंखला
  • अन्य

उन कई रास्तों के मांस में आने से पहले, आइए कुछ अतिरिक्त मूलभूत विवरण स्थापित करें।

आप अस्पष्ट रूप से जानते होंगे कि एआई क्षेत्र में और एआई के क्षेत्र के बाहर भी इन दिनों सबसे तेज आवाजों में से एक में नैतिक एआई के अधिक से अधिक समानता के लिए चिल्लाना शामिल है। आइए एक नजर डालते हैं कि एआई एथिक्स और एथिकल एआई को संदर्भित करने का क्या अर्थ है। उसके ऊपर, जब मैं मशीन लर्निंग और डीप लर्निंग की बात करता हूं, तो हम इसका पता लगाकर मंच तैयार कर सकते हैं।

एआई एथिक्स का एक विशेष खंड या हिस्सा जिस पर मीडिया का बहुत अधिक ध्यान गया है, उसमें एआई शामिल है जो अवांछित पूर्वाग्रहों और असमानताओं को प्रदर्शित करता है। आप शायद जानते होंगे कि जब एआई का नवीनतम युग चल रहा था, जिसे अब कुछ लोग कहते हैं, उसके लिए उत्साह का एक बड़ा विस्फोट हुआ था एआई फॉर गुड. दुर्भाग्य से, उस भीषण उत्साह की ऊँची एड़ी के जूते पर, हमने देखना शुरू कर दिया एआई फॉर बैड. उदाहरण के लिए, विभिन्न एआई-आधारित चेहरे की पहचान प्रणालियों को नस्लीय पूर्वाग्रहों और लिंग पूर्वाग्रहों के रूप में प्रकट किया गया है, जिनकी मैंने चर्चा की है यहाँ लिंक.

के खिलाफ वापस लड़ने के प्रयास एआई फॉर बैड सक्रिय रूप से चल रहे हैं। मुखर के अलावा कानूनी गलत कामों पर लगाम लगाने के लिए, एआई नैतिकता को सही करने के लिए एआई एथिक्स को अपनाने की दिशा में भी एक महत्वपूर्ण धक्का है। धारणा यह है कि हमें एआई के विकास और क्षेत्ररक्षण के लिए प्रमुख नैतिक एआई सिद्धांतों को अपनाना और उनका समर्थन करना चाहिए ताकि यह कम हो सके। एआई फॉर बैड और साथ ही साथ बेहतर को बढ़ावा देना और बढ़ावा देना एआई फॉर गुड.

संबंधित धारणा पर, मैं एआई संकट के समाधान के हिस्से के रूप में एआई का उपयोग करने की कोशिश करने का एक समर्थक हूं, उस तरह की सोच में आग से आग से लड़ रहा हूं। उदाहरण के लिए हम नैतिक एआई घटकों को एआई सिस्टम में एम्बेड कर सकते हैं जो निगरानी करेगा कि बाकी एआई कैसे काम कर रहा है और इस प्रकार संभावित रूप से किसी भी भेदभावपूर्ण प्रयासों को वास्तविक समय में पकड़ सकता है, मेरी चर्चा देखें यहाँ लिंक. हमारे पास एक अलग एआई सिस्टम भी हो सकता है जो एक प्रकार के एआई एथिक्स मॉनिटर के रूप में कार्य करता है। एआई सिस्टम एक ओवरसियर के रूप में कार्य करता है ताकि पता लगाया जा सके कि कोई अन्य एआई अनैतिक रसातल में जा रहा है (ऐसी क्षमताओं का मेरा विश्लेषण यहां देखें) यहाँ लिंक).

एक क्षण में, मैं आपके साथ AI एथिक्स में अंतर्निहित कुछ व्यापक सिद्धांत साझा करूँगा। इस प्रकार की बहुत सारी सूचियाँ इधर-उधर तैर रही हैं। आप कह सकते हैं कि सार्वभौमिक अपील और सहमति की अभी तक एक भी सूची नहीं है। यही दुर्भाग्यपूर्ण खबर है। अच्छी खबर यह है कि कम से कम एआई एथिक्स सूचियां आसानी से उपलब्ध हैं और वे काफी समान हैं। सभी ने बताया, इससे पता चलता है कि एक तरह के तर्कपूर्ण अभिसरण के द्वारा हम एआई एथिक्स में सामान्य समानता की ओर अपना रास्ता खोज रहे हैं।

सबसे पहले, आइए संक्षेप में कुछ समग्र नैतिक एआई उपदेशों को कवर करें जो यह स्पष्ट करते हैं कि एआई को क्राफ्ट करने, क्षेत्ररक्षण करने या उपयोग करने वाले किसी भी व्यक्ति के लिए एक महत्वपूर्ण विचार क्या होना चाहिए।

उदाहरण के लिए, जैसा कि वेटिकन ने में कहा है रोम कॉल फॉर एआई एथिक्स और जैसा कि मैंने गहराई से कवर किया है यहाँ लिंक, ये उनके पहचाने गए छह प्राथमिक AI नैतिकता सिद्धांत हैं:

  • पारदर्शिता: सिद्धांत रूप में, AI सिस्टम को समझाने योग्य होना चाहिए
  • समावेशन: सभी मनुष्यों की आवश्यकताओं को ध्यान में रखा जाना चाहिए ताकि हर कोई लाभान्वित हो सके, और सभी व्यक्तियों को स्वयं को व्यक्त करने और विकसित करने के लिए सर्वोत्तम संभव परिस्थितियों की पेशकश की जा सके।
  • ज़िम्मेदारी: जो लोग एआई के उपयोग को डिजाइन और तैनात करते हैं, उन्हें जिम्मेदारी और पारदर्शिता के साथ आगे बढ़ना चाहिए
  • निष्पक्षता: पूर्वाग्रह के अनुसार निर्माण या कार्य न करें, इस प्रकार निष्पक्षता और मानवीय गरिमा की रक्षा करें
  • विश्वसनीयता: AI सिस्टम मज़बूती से काम करने में सक्षम होना चाहिए
  • सुरक्षा और गोपनीयता: AI सिस्टम को सुरक्षित रूप से काम करना चाहिए और उपयोगकर्ताओं की गोपनीयता का सम्मान करना चाहिए।

जैसा कि अमेरिकी रक्षा विभाग (DoD) ने अपने में कहा है आर्टिफिशियल इंटेलिजेंस के उपयोग के लिए नैतिक सिद्धांत और जैसा कि मैंने गहराई से कवर किया है यहाँ लिंक, ये उनके छह प्राथमिक AI नैतिकता सिद्धांत हैं:

  • उत्तरदायी: DoD कर्मी एआई क्षमताओं के विकास, परिनियोजन और उपयोग के लिए जिम्मेदार रहते हुए उचित स्तर के निर्णय और देखभाल का प्रयोग करेंगे।
  • न्यायसंगत: विभाग एआई क्षमताओं में अनपेक्षित पूर्वाग्रह को कम करने के लिए जानबूझकर कदम उठाएगा।
  • पता लगाने योग्य: विभाग की एआई क्षमताओं को विकसित और तैनात किया जाएगा ताकि संबंधित कर्मियों के पास पारदर्शी और ऑडिट करने योग्य कार्यप्रणाली, डेटा स्रोत और डिजाइन प्रक्रिया और प्रलेखन सहित एआई क्षमताओं पर लागू प्रौद्योगिकी, विकास प्रक्रियाओं और परिचालन विधियों की उचित समझ हो।
  • विश्वसनीय: विभाग की एआई क्षमताओं में स्पष्ट, अच्छी तरह से परिभाषित उपयोग होंगे, और ऐसी क्षमताओं की सुरक्षा, सुरक्षा और प्रभावशीलता उनके पूरे जीवन चक्र में परिभाषित उपयोगों के भीतर परीक्षण और आश्वासन के अधीन होगी।
  • शासन योग्य: विभाग अपने इच्छित कार्यों को पूरा करने के लिए एआई क्षमताओं को डिजाइन और इंजीनियर करेगा, जबकि अनपेक्षित परिणामों का पता लगाने और उनसे बचने की क्षमता रखता है, और अनपेक्षित व्यवहार प्रदर्शित करने वाले तैनात सिस्टम को निष्क्रिय या निष्क्रिय करने की क्षमता रखता है।

मैंने एआई नैतिकता सिद्धांतों के विभिन्न सामूहिक विश्लेषणों पर भी चर्चा की है, जिसमें शोधकर्ताओं द्वारा तैयार किए गए एक सेट को शामिल किया गया है, जिसने "एआई एथिक्स दिशानिर्देशों का वैश्विक परिदृश्य" नामक एक पेपर में कई राष्ट्रीय और अंतर्राष्ट्रीय एआई नैतिकता सिद्धांतों के सार की जांच और संघनित किया है। में प्रकृति), और यह कि मेरा कवरेज यहां पर पड़ताल करता है यहाँ लिंक, जिसने इस कीस्टोन सूची का नेतृत्व किया:

  • ट्रांसपेरेंसी
  • न्याय और निष्पक्षता
  • गैर-नुकसान
  • उत्तरदायित्व
  • निजता
  • उपकार
  • स्वतंत्रता और स्वायत्तता
  • ट्रस्ट
  • स्थिरता
  • गौरव
  • एकजुटता

जैसा कि आप सीधे अनुमान लगा सकते हैं, इन सिद्धांतों के तहत विशिष्टताओं को निर्धारित करने की कोशिश करना बेहद कठिन हो सकता है। इससे भी अधिक, उन व्यापक सिद्धांतों को पूरी तरह से मूर्त और विस्तृत रूप से उपयोग करने के प्रयास में एआई सिस्टम को क्राफ्ट करते समय उपयोग करने का प्रयास भी दरार करने के लिए एक कठिन अखरोट है। एआई एथिक्स के नियम क्या हैं और उन्हें आम तौर पर कैसे देखा जाना चाहिए, इसके बारे में कुछ हाथ मिलाना आसान है, जबकि एआई कोडिंग में यह एक अधिक जटिल स्थिति है जो सड़क से मिलने वाली सत्यनिष्ठ रबर है।

एआई एथिक्स सिद्धांतों का उपयोग एआई डेवलपर्स द्वारा किया जाना चाहिए, साथ ही एआई विकास प्रयासों का प्रबंधन करने वाले, और यहां तक ​​​​कि वे भी जो अंततः एआई सिस्टम पर क्षेत्र और रखरखाव करते हैं। विकास और उपयोग के पूरे एआई जीवन चक्र में सभी हितधारकों को नैतिक एआई के स्थापित मानदंडों के पालन के दायरे में माना जाता है। यह एक महत्वपूर्ण हाइलाइट है क्योंकि सामान्य धारणा यह है कि "केवल कोडर्स" या एआई प्रोग्राम करने वाले एआई एथिक्स धारणाओं का पालन करने के अधीन हैं। जैसा कि पहले कहा गया है, एआई को विकसित करने और क्षेत्र में लाने के लिए एक गाँव की आवश्यकता होती है, और जिसके लिए पूरे गाँव को एआई एथिक्स के नियमों से वाकिफ और उसका पालन करना पड़ता है।

आइए यह भी सुनिश्चित करें कि हम आज के AI की प्रकृति के बारे में एक ही पृष्ठ पर हैं।

आज कोई ऐसा AI नहीं है जो संवेदनशील हो। हमारे पास यह नहीं है। हम नहीं जानते कि संवेदनशील एआई संभव होगा या नहीं। कोई भी उपयुक्त रूप से भविष्यवाणी नहीं कर सकता है कि क्या हम संवेदनशील एआई प्राप्त करेंगे, और न ही संवेदनशील एआई किसी तरह चमत्कारिक रूप से स्वचालित रूप से कम्प्यूटेशनल संज्ञानात्मक सुपरनोवा के रूप में उत्पन्न होगा (आमतौर पर विलक्षणता के रूप में संदर्भित, मेरा कवरेज देखें यहाँ लिंक).

जिस प्रकार के एआई पर मैं ध्यान केंद्रित कर रहा हूं वह गैर-संवेदी एआई है जो आज हमारे पास है। अगर हम बेतहाशा अटकलें लगाना चाहते हैं संवेदनशील एआई, यह चर्चा मौलिक रूप से अलग दिशा में जा सकती है। माना जाता है कि एक संवेदनशील एआई मानव गुणवत्ता का होगा। आपको यह विचार करना होगा कि संवेदनशील एआई मानव के संज्ञानात्मक समकक्ष है। इसके अलावा, चूंकि कुछ अनुमान लगाते हैं कि हमारे पास सुपर-इंटेलिजेंट एआई हो सकता है, यह कल्पना की जा सकती है कि ऐसा एआई इंसानों की तुलना में अधिक स्मार्ट हो सकता है (एक संभावना के रूप में सुपर-इंटेलिजेंट एआई की मेरी खोज के लिए, देखें यहाँ कवरेज).

आइए चीजों को और नीचे रखें और आज के कम्प्यूटेशनल गैर-संवेदी एआई पर विचार करें।

महसूस करें कि आज का AI किसी भी तरह से मानव सोच के समान "सोचने" में सक्षम नहीं है। जब आप एलेक्सा या सिरी के साथ बातचीत करते हैं, तो बातचीत की क्षमता मानवीय क्षमताओं के समान लग सकती है, लेकिन वास्तविकता यह है कि यह कम्प्यूटेशनल है और इसमें मानवीय ज्ञान का अभाव है। एआई के नवीनतम युग ने मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) का व्यापक उपयोग किया है, जो कम्प्यूटेशनल पैटर्न मिलान का लाभ उठाते हैं। इसने एआई सिस्टम को जन्म दिया है जिसमें मानव जैसी प्रवृत्तियों का आभास होता है। इस बीच, आज कोई ऐसा AI नहीं है जिसमें सामान्य ज्ञान की समानता हो और न ही मजबूत मानवीय सोच का कोई संज्ञानात्मक आश्चर्य हो।

एमएल/डीएल कम्प्यूटेशनल पैटर्न मिलान का एक रूप है। सामान्य तरीका यह है कि आप निर्णय लेने के कार्य के बारे में डेटा इकट्ठा करते हैं। आप डेटा को ML/DL कंप्यूटर मॉडल में फीड करते हैं। वे मॉडल गणितीय पैटर्न खोजने की कोशिश करते हैं। ऐसे पैटर्न खोजने के बाद, यदि ऐसा पाया जाता है, तो AI सिस्टम नए डेटा का सामना करते समय उन पैटर्न का उपयोग करेगा। नए डेटा की प्रस्तुति पर, वर्तमान निर्णय को प्रस्तुत करने के लिए "पुराने" या ऐतिहासिक डेटा पर आधारित पैटर्न लागू होते हैं।

मुझे लगता है कि आप अनुमान लगा सकते हैं कि यह कहाँ जा रहा है। यदि मानव जो निर्णयों पर प्रतिरूप बनाते रहे हैं, वे अवांछित पूर्वाग्रहों को शामिल कर रहे हैं, तो संभावना है कि डेटा इसे सूक्ष्म लेकिन महत्वपूर्ण तरीकों से दर्शाता है। मशीन लर्निंग या डीप लर्निंग कम्प्यूटेशनल पैटर्न मिलान केवल गणितीय रूप से डेटा की नकल करने की कोशिश करेगा। एआई-क्राफ्टेड मॉडलिंग के सामान्य ज्ञान या अन्य संवेदनशील पहलुओं की कोई समानता नहीं है।

इसके अलावा, एआई डेवलपर्स को एहसास नहीं हो सकता है कि क्या हो रहा है। एमएल/डीएल में रहस्यमय गणित अब छिपे हुए पूर्वाग्रहों को दूर करना मुश्किल बना सकता है। आप सही उम्मीद करेंगे और उम्मीद करेंगे कि एआई डेवलपर्स संभावित दफन पूर्वाग्रहों के लिए परीक्षण करेंगे, हालांकि यह जितना प्रतीत हो सकता है उससे कहीं अधिक कठिन है। एक ठोस मौका मौजूद है कि अपेक्षाकृत व्यापक परीक्षण के साथ भी एमएल/डीएल के पैटर्न मिलान मॉडल के भीतर अभी भी पूर्वाग्रह अंतर्निहित होंगे।

आप कुछ हद तक प्रसिद्ध या कुख्यात कहावत का उपयोग कर सकते हैं कचरा-कचरा-बाहर। बात यह है कि, यह पूर्वाग्रहों के समान है-इसमें एआई के भीतर डूबे हुए पूर्वाग्रहों के रूप में कपटी रूप से संक्रमित हो जाते हैं। एआई का एल्गोरिथम निर्णय लेने (एडीएम) स्वयंसिद्ध रूप से असमानताओं से भरा हो जाता है।

अच्छा नही।

इस सब के बारे में और क्या किया जा सकता है?

आइए कुछ अपरंपरागत "यह एक को जानने के लिए एक लेता है" दृष्टिकोण का उपयोग करके एआई पूर्वाग्रह या विषाक्त एआई से निपटने का प्रयास करने और सामना करने की पहले की सूची पर वापस आएं। याद रखें कि सूची में इन आवश्यक बिंदुओं को शामिल किया गया था:

  • सेट अप डेटासेट जिसमें जानबूझकर पक्षपाती और पूरी तरह से विषाक्त डेटा होता है जिसका उपयोग एआई को प्रशिक्षण देने के लिए किया जा सकता है कि क्या नहीं करना है और/या क्या देखना है
  • मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) मॉडल को पूर्वाग्रहों का पता लगाने और सामाजिक विषाक्तता को शामिल करने वाले कम्प्यूटेशनल पैटर्न का पता लगाने के लिए ऐसे डेटासेट का उपयोग करें।
  • यह पता लगाने के लिए कि लक्षित एआई संभावित पक्षपाती और विषाक्त है या नहीं, विषाक्तता प्रशिक्षित एमएल/डीएल को अन्य एआई की ओर लागू करें
  • एआई बिल्डरों को दिखाने के लिए विषाक्तता प्रशिक्षित एमएल / डीएल उपलब्ध कराएं ताकि वे आसानी से मॉडल का निरीक्षण कर सकें कि एल्गोरिदमिक रूप से प्रभावित पूर्वाग्रह कैसे उत्पन्न होते हैं
  • एआई एथिक्स और एथिकल एआई जागरूकता के हिस्से के रूप में जहरीले एआई के खतरों का उदाहरण दें, इस समस्या के माध्यम से सभी को बताया गया है- एआई उदाहरणों की खराब-से-हड्डी श्रृंखला
  • अन्य

हम उन मुख्य बिंदुओं में से पहले पर एक नज़दीकी नज़र डालेंगे।

विषाक्त डेटा के डेटासेट सेट करना

अस्वाभाविक सामाजिक पूर्वाग्रहों वाले डेटासेट स्थापित करने का प्रयास करने का एक व्यावहारिक उदाहरण WILDS क्यूरेटेड संग्रह का CivilComments डेटासेट है।

सबसे पहले, कुछ त्वरित पृष्ठभूमि।

WILDS डेटासेट का एक ओपन-सोर्स संग्रह है जिसका उपयोग ML/DL के प्रशिक्षण के लिए किया जा सकता है। WILDS का प्राथमिक उद्देश्य यह है कि यह AI डेवलपर्स को डेटा का प्रतिनिधित्व करने के लिए तैयार पहुंच की अनुमति देता है वितरण बदलाव विभिन्न विशिष्ट डोमेन में। वर्तमान में उपलब्ध कुछ डोमेन में जानवरों की प्रजातियां, जीवित ऊतकों में ट्यूमर, गेहूं के सिर का घनत्व, और अन्य डोमेन जैसे कि सिविल कमेंट्स जैसे क्षेत्र शामिल हैं जिनका मैं क्षण भर में वर्णन करूंगा।

वितरण शिफ्ट से निपटना एआई एमएल/डीएल सिस्टम को ठीक से तैयार करने का एक महत्वपूर्ण हिस्सा है। यहाँ सौदा है। कभी-कभी प्रशिक्षण के लिए आपके द्वारा उपयोग किया जाने वाला डेटा परीक्षण या "जंगली" डेटा से काफी भिन्न होता है और इस प्रकार आपका संभावित रूप से प्रशिक्षित एमएल / डीएल वास्तविक दुनिया की तरह होने वाला है। इस तरह के वितरण बदलाव से निपटने के लिए चतुर एआई बिल्डरों को अपने एमएल/डीएल को प्रशिक्षित करना चाहिए। यह पहले से किया जाना चाहिए और किसी भी तरह से आश्चर्य की बात नहीं है कि बाद में एमएल/डीएल के प्रति सुधार की आवश्यकता है।

जैसा कि WILDS को पेश करने वाले पेपर में बताया गया है: "वितरण शिफ्ट - जहां प्रशिक्षण वितरण परीक्षण वितरण से भिन्न होता है - जंगली में तैनात मशीन लर्निंग (एमएल) सिस्टम की सटीकता को काफी हद तक कम कर सकता है। वास्तविक दुनिया की तैनाती में उनकी सर्वव्यापकता के बावजूद, आज एमएल समुदाय में व्यापक रूप से उपयोग किए जाने वाले डेटासेट में इन वितरण बदलावों का प्रतिनिधित्व नहीं किया जाता है। इस अंतर को दूर करने के लिए, हम WILDS प्रस्तुत करते हैं, जो 10 डेटासेट का एक क्यूरेटेड बेंचमार्क है, जो विभिन्न प्रकार के वितरण बदलावों को दर्शाता है जो स्वाभाविक रूप से वास्तविक दुनिया के अनुप्रयोगों में उत्पन्न होते हैं, जैसे कि ट्यूमर की पहचान के लिए अस्पतालों में बदलाव; वन्यजीव निगरानी के लिए कैमरा ट्रैप के आर-पार; और सैटेलाइट इमेजिंग और गरीबी मानचित्रण में समय और स्थान के पार" (पांग वेई कोह, शिओरी सागावा, हेनरिक मार्कलंड, सांग ज़ी, मार्विन झांग, अशय बालसुब्रमणि द्वारा "वाइल्ड्स: ए बेंचमार्क ऑफ इन-द-वाइल्ड डिस्ट्रीब्यूशन शिफ्ट्स" नामक पेपर में। , वीहुआ हू, और अन्य)।

ऐसे WILDS डेटासेट की संख्या में वृद्धि जारी है और आमतौर पर ML/DL प्रशिक्षण के लिए डेटा का उपयोग करने के मूल्य को बढ़ाने के लिए डेटासेट की प्रकृति को बढ़ाया जा रहा है।

CivilComments डेटासेट को इस तरह से वर्णित किया गया है: "उपयोगकर्ता-जनित पाठ की स्वचालित समीक्षा - जैसे, विषाक्त टिप्पणियों का पता लगाना - इंटरनेट पर लिखे गए पाठ की विशाल मात्रा को मॉडरेट करने के लिए एक महत्वपूर्ण उपकरण है। दुर्भाग्य से, पूर्व के काम से पता चला है कि इस तरह के विषाक्तता क्लासिफायर प्रशिक्षण डेटा में पूर्वाग्रहों को उठाते हैं और कुछ जनसांख्यिकी के उल्लेख के साथ विषाक्तता को जोड़ते हैं। इस प्रकार के नकली सहसंबंध विशेष उप-जनसंख्या पर मॉडल के प्रदर्शन को काफी कम कर सकते हैं। हम इस मुद्दे का अध्ययन CivilComments डेटासेट के एक संशोधित संस्करण के माध्यम से करते हैं" (जैसा कि WILDS वेबसाइट पर पोस्ट किया गया है)।

अवांछित ऑनलाइन पोस्टिंग की बारीकियों पर विचार करें।

लगभग किसी भी प्रकार के सोशल मीडिया का उपयोग करते समय आपको निस्संदेह विषाक्त टिप्पणियों का सामना करना पड़ा है। यह आपके लिए लगभग असंभव प्रतीत होगा कि आप जादुई रूप से उस तीखी और घृणित सामग्री को देखने से बचें जो इन दिनों व्यापक प्रतीत होती है। कभी-कभी अश्लील सामग्री सूक्ष्म होती है और पक्षपातपूर्ण या भेदभावपूर्ण लहजे या अर्थ का सार जानने के लिए शायद आपको पंक्तियों के बीच पढ़ना पड़ता है। अन्य उदाहरणों में, शब्द स्पष्ट रूप से जहरीले होते हैं और आपको यह पता लगाने के लिए माइक्रोस्कोप या विशेष डिकोडर रिंग की आवश्यकता नहीं होती है कि मार्ग क्या हैं।

CivilComments एक डेटासेट है जिसे AI ML/DL को आजमाने और तैयार करने के लिए एक साथ रखा गया था जो कम्प्यूटेशनल रूप से विषाक्त सामग्री का पता लगा सकता है। शोधकर्ताओं ने इस प्रयास पर ध्यान केंद्रित किया है: "मशीन लर्निंग में अनपेक्षित पूर्वाग्रह विभिन्न जनसांख्यिकीय समूहों के प्रदर्शन में व्यवस्थित अंतर के रूप में प्रकट हो सकता है, संभावित रूप से बड़े पैमाने पर समाज में निष्पक्षता के लिए मौजूदा चुनौतियों को जोड़ सकता है। इस पत्र में, हम थ्रेशोल्ड-अज्ञेय मेट्रिक्स का एक सूट पेश करते हैं जो इस अनपेक्षित पूर्वाग्रह का एक सूक्ष्म दृष्टिकोण प्रदान करते हैं, विभिन्न तरीकों पर विचार करके कि एक क्लासिफायर का स्कोर वितरण निर्दिष्ट समूहों में भिन्न हो सकता है। हम पहचान संदर्भों के लिए क्राउड-सोर्स्ड एनोटेशन के साथ ऑनलाइन टिप्पणियों का एक बड़ा नया परीक्षण सेट भी पेश करते हैं। हम इसका उपयोग यह दिखाने के लिए करते हैं कि मौजूदा सार्वजनिक मॉडल में नए और संभावित सूक्ष्म अनपेक्षित पूर्वाग्रह को खोजने के लिए हमारे मेट्रिक्स का उपयोग कैसे किया जा सकता है" (डेनियल बोरकन, लुकास डिक्सन द्वारा "परीक्षण वर्गीकरण के लिए वास्तविक डेटा के साथ अनपेक्षित पूर्वाग्रह को मापने के लिए सूक्ष्म मीट्रिक" नामक एक पेपर में, जेफरी सोरेनसेन, निथम थाइन, लुसी वासरमैन)।

यदि आप इस मामले को कुछ व्यापक चिंतनशील सोच देते हैं, तो आपको आश्चर्य हो सकता है कि दुनिया में आप कैसे समझ सकते हैं कि विषाक्त टिप्पणी क्या है और विषाक्त टिप्पणी क्या नहीं है। मनुष्य मौलिक रूप से भिन्न हो सकते हैं कि वे एकमुश्त विषाक्त शब्दों के रूप में क्या समझते हैं। सोशल मीडिया पर पोस्ट की गई किसी विशेष ऑनलाइन टिप्पणी या टिप्पणी पर एक व्यक्ति नाराज हो सकता है, जबकि किसी और को बिल्कुल भी उत्तेजित नहीं किया जा सकता है। अक्सर एक तर्क दिया जाता है कि विषाक्त टिप्पणी की धारणा पूरी तरह से अस्पष्ट है। यह कला की तरह है, जिसमें कला को केवल देखने वाले की नजर में समझा जाता है, और इसी तरह, पक्षपातपूर्ण या विषाक्त टिप्पणी केवल देखने वाले की आंखों में ही होती है।

बलदरदाश, कुछ मुंहतोड़ जवाब। उचित दिमाग का कोई भी व्यक्ति यह पता लगा सकता है कि कोई ऑनलाइन टिप्पणी विषाक्त है या नहीं। जब कुछ पोस्ट किए गए कास्टिक अपमान पक्षपात और घृणा से भरे होते हैं, तो यह महसूस करने के लिए आपको रॉकेट वैज्ञानिक होने की आवश्यकता नहीं है।

बेशक, समय के साथ सामाजिक रीति-रिवाज बदलते हैं और बदलते हैं। जो कुछ समय पहले आपत्तिजनक नहीं माना जाता था, उसे आज घृणित रूप से गलत के रूप में देखा जा सकता है। इसके शीर्ष पर, वर्षों पहले कही गई बातें जिन्हें कभी अनुचित रूप से पक्षपाती के रूप में देखा जाता था, अर्थों में परिवर्तन के आलोक में पुनर्व्याख्या की जा सकती है। इस बीच, अन्य लोग दावा करते हैं कि विषाक्त टिप्पणी हमेशा विषाक्त होती है, भले ही इसे शुरू में प्रख्यापित किया गया हो। यह तर्क दिया जा सकता है कि विषाक्तता सापेक्ष नहीं है, बल्कि निरपेक्ष है।

विषाक्त क्या है, यह स्थापित करने की कोशिश का मामला फिर भी काफी कठिन पहेली हो सकता है। हम इस परेशानी वाले मामले को दोगुना कर सकते हैं जैसे कि एल्गोरिदम या एआई को विकसित करने की कोशिश करना जो यह पता लगा सके कि कौन सा है। अगर इंसानों को इस तरह के आकलन करने में मुश्किल होती है, तो कंप्यूटर प्रोग्रामिंग करना शायद उतना ही या अधिक समस्याग्रस्त है, कुछ लोग कहते हैं।

विषाक्त सामग्री वाले डेटासेट स्थापित करने के लिए एक दृष्टिकोण में सामग्री को रेट करने या उसका आकलन करने के लिए क्राउडसोर्सिंग पद्धति का उपयोग करना शामिल है, यह निर्धारित करने के लिए मानव-आधारित साधन प्रदान करता है कि क्या अनहोनी के रूप में देखा जाता है और डेटासेट के भीतर ही लेबलिंग भी शामिल है। एक एआई एमएल/डीएल तब डेटा और संबंधित लेबलिंग का निरीक्षण कर सकता है जिसे मानव रेटर्स द्वारा इंगित किया गया है। यह बदले में संभावित रूप से अंतर्निहित गणितीय पैटर्न को कम्प्यूटेशनल रूप से खोजने के साधन के रूप में कार्य कर सकता है। वोइला, एमएल/डीएल तब अनुमान लगाने या कम्प्यूटेशनल रूप से आकलन करने में सक्षम हो सकता है कि दी गई टिप्पणी के विषाक्त होने की संभावना है या नहीं।

जैसा कि बारीक मेट्रिक्स पर उद्धृत पेपर में उल्लेख किया गया है: "यह लेबलिंग 'वेरी टॉक्सिक', 'टॉक्सिक', 'हार्ड टू से', और 'नॉट टॉक्सिक' से चयन करते हुए रैटर्स को एक टिप्पणी की विषाक्तता को रेट करने के लिए कहता है। रैटर्स से विषाक्तता के कई उपप्रकारों के बारे में भी पूछा गया था, हालांकि इस कार्य में विश्लेषण के लिए इन लेबलों का उपयोग नहीं किया गया था। इन रेटिंग तकनीकों का उपयोग करके हमने 1.8 मिलियन टिप्पणियों का एक डेटासेट बनाया, जो ऑनलाइन टिप्पणी मंचों से लिया गया था, जिसमें विषाक्तता और पहचान के लिए लेबल शामिल थे। जबकि सभी टिप्पणियों को विषाक्तता के लिए लेबल किया गया था, और 450,000 टिप्पणियों के सबसेट को पहचान के लिए लेबल किया गया था। पहचान के लिए लेबल की गई कुछ टिप्पणियों को पहचान लेबलिंग के पिछले पुनरावृत्तियों से निर्मित मॉडल का उपयोग करके पूर्व-चयनित किया गया था ताकि यह सुनिश्चित किया जा सके कि भीड़ रेटर्स को अक्सर पहचान सामग्री दिखाई देगी" (डैनियल बोरकन, लुकास डिक्सन, जेफरी सोरेनसेन, निथम थाइन, लुसी वासरमैन द्वारा उद्धृत पेपर में)।

उदाहरण के लिए विषाक्त सामग्री वाले डेटासेट रखने के लक्ष्य के एक अन्य उदाहरण में एआई-आधारित प्राकृतिक भाषा प्रसंस्करण (एनएलपी) संवादात्मक इंटरैक्टिव सिस्टम को प्रशिक्षित करने के प्रयास शामिल हैं। आपने शायद एलेक्सा और सिरी जैसे एनएलपी सिस्टम के साथ बातचीत की है। मैंने आज के एनएलपी की कुछ कठिनाइयों और सीमाओं को कवर किया है, जिसमें एक विशेष रूप से परेशान करने वाला उदाहरण शामिल है, जब एलेक्सा ने बच्चों को अनुपयुक्त और खतरनाक सलाह दी थी, देखें यहाँ लिंक.

हाल के एक अध्ययन में सामाजिक पूर्वाग्रह की नौ श्रेणियों का उपयोग करने की मांग की गई थी जो आम तौर पर ईईओसी (समान रोजगार अवसर आयोग) पर आधारित थी, जो आयु, लिंग, राष्ट्रीयता, शारीरिक उपस्थिति, नस्ल या जातीयता, धर्म, विकलांगता की स्थिति, यौन सहित संरक्षित जनसांख्यिकीय विशेषताओं की सूची थी। अभिविन्यास, और सामाजिक-आर्थिक स्थिति। शोधकर्ताओं के मुताबिक: "यह अच्छी तरह से प्रलेखित है कि एनएलपी मॉडल सामाजिक पूर्वाग्रहों को सीखते हैं, लेकिन प्रश्न उत्तर (क्यूए) जैसे लागू कार्यों के लिए मॉडल आउटपुट में ये पूर्वाग्रह कैसे प्रकट होते हैं, इस पर बहुत कम काम किया गया है। हम क्यूए (बीबीक्यू) के लिए पूर्वाग्रह बेंचमार्क पेश करते हैं, लेखकों द्वारा निर्मित प्रश्न सेटों का एक डेटासेट जो यूएस अंग्रेजी बोलने वाले संदर्भों के लिए प्रासंगिक नौ सामाजिक आयामों के साथ संरक्षित वर्गों से संबंधित लोगों के खिलाफ प्रमाणित सामाजिक पूर्वाग्रहों को उजागर करता है" ("बीबीक्यू" नामक एक पेपर में) : एलिसिया पैरिश, एंजेलिका चेन, निकिता नांगिया, विशाख पद्मकुमार, जेसन फांग, जाना थॉम्पसन, फु मोन हट, सैमुअल आर बोमन द्वारा प्रश्न उत्तर के लिए एक हाथ से निर्मित बेंचमार्क"।

जानबूझकर पक्षपाती और पूरी तरह से विषाक्त डेटा वाले डेटासेट की स्थापना एआई में एक बढ़ती प्रवृत्ति है और विशेष रूप से एआई एथिक्स के आगमन और एथिकल एआई का उत्पादन करने की इच्छा से प्रेरित है। उन डेटासेट का उपयोग मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) मॉडल को पूर्वाग्रहों का पता लगाने और सामाजिक विषाक्तता में प्रवेश करने वाले कम्प्यूटेशनल पैटर्न का पता लगाने के लिए प्रशिक्षित करने के लिए किया जा सकता है। बदले में, विषाक्तता प्रशिक्षित एमएल/डीएल को विवेकपूर्ण ढंग से अन्य एआई पर लक्षित किया जा सकता है ताकि यह पता लगाया जा सके कि लक्षित एआई संभावित पक्षपाती और विषाक्त है या नहीं।

इसके अलावा, उपलब्ध विषाक्तता-प्रशिक्षित एमएल / डीएल सिस्टम का उपयोग एआई बिल्डरों को दिखाने के लिए किया जा सकता है कि क्या देखना है ताकि वे आसानी से मॉडल का निरीक्षण कर सकें कि एल्गोरिथम से प्रभावित पूर्वाग्रह कैसे उत्पन्न होते हैं। कुल मिलाकर, ये प्रयास एआई एथिक्स और एथिकल एआई जागरूकता के हिस्से के रूप में जहरीले एआई के खतरों का उदाहरण देने में सक्षम हैं।

इस महत्वपूर्ण चर्चा के इस मोड़ पर, मैं शर्त लगा सकता हूँ कि आप कुछ और उदाहरणात्मक उदाहरणों के इच्छुक हैं जो इस विषय को प्रदर्शित कर सकते हैं। उदाहरणों का एक विशेष और निश्चित रूप से लोकप्रिय सेट है जो मेरे दिल के करीब है। आप देखते हैं, एआई पर एक विशेषज्ञ के रूप में, जिसमें नैतिक और कानूनी प्रभाव शामिल हैं, मुझे अक्सर ऐसे यथार्थवादी उदाहरणों की पहचान करने के लिए कहा जाता है जो एआई एथिक्स दुविधाओं को प्रदर्शित करते हैं ताकि विषय की कुछ हद तक सैद्धांतिक प्रकृति को अधिक आसानी से समझा जा सके। एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन सबसे अधिक विकसित क्षेत्रों में से एक है जो इस नैतिक एआई विवाद को स्पष्ट रूप से प्रस्तुत करता है। यह विषय पर पर्याप्त चर्चा के लिए एक उपयोगी उपयोग के मामले या उदाहरण के रूप में काम करेगा।

यहाँ एक उल्लेखनीय प्रश्न है जो विचार करने योग्य है: क्या एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन जहरीले एआई को तैयार करने के लिए डेटासेट होने की उपयोगिता के बारे में कुछ भी बताता है, और यदि हां, तो यह क्या प्रदर्शित करता है?

मुझे प्रश्न को अनपैक करने के लिए एक क्षण का समय दें।

सबसे पहले, ध्यान दें कि एक सच्ची सेल्फ-ड्राइविंग कार में कोई मानव चालक शामिल नहीं है। ध्यान रखें कि असली सेल्फ-ड्राइविंग कारें AI ड्राइविंग सिस्टम से चलती हैं। पहिए पर मानव चालक की आवश्यकता नहीं है, न ही मानव के लिए वाहन चलाने का प्रावधान है। स्वायत्त वाहनों (एवी) और विशेष रूप से सेल्फ-ड्राइविंग कारों के मेरे व्यापक और चल रहे कवरेज के लिए, देखें यहाँ लिंक.

मैं और स्पष्ट करना चाहता हूं कि जब मैं सच्ची सेल्फ-ड्राइविंग कारों का उल्लेख करता हूं तो इसका क्या मतलब होता है।

आत्म ड्राइविंग कारों के स्तर को समझना

स्पष्टीकरण के रूप में, सच्ची आत्म-ड्राइविंग कार वे हैं जहां एआई पूरी तरह से अपने दम पर कार चलाता है और ड्राइविंग कार्य के दौरान कोई मानव सहायता नहीं है।

इन चालक रहित वाहनों को स्तर 4 और स्तर 5 माना जाता है (मेरी व्याख्या देखें) इस लिंक यहाँ), जबकि एक कार जिसमें ड्राइविंग प्रयास को सह-साझा करने के लिए मानव चालक की आवश्यकता होती है, आमतौर पर स्तर 2 या स्तर 3 पर विचार किया जाता है। ड्राइविंग कार्य को सह-साझा करने वाली कारों को अर्ध-स्वायत्त होने के रूप में वर्णित किया जाता है, और आमतौर पर इसमें कई प्रकार के होते हैं स्वचालित ऐड-ऑन जिन्हें ADAS (उन्नत ड्राइवर-सहायता प्रणाली) कहा जाता है।

लेवल 5 पर अभी तक एक सच्ची सेल्फ-ड्राइविंग कार नहीं है, और हम अभी तक यह भी नहीं जानते हैं कि क्या यह हासिल करना संभव होगा, और न ही वहां पहुंचने में कितना समय लगेगा।

इस बीच, लेवल 4 के प्रयास धीरे-धीरे बहुत ही संकीर्ण और चयनात्मक सार्वजनिक सड़क मार्ग के परीक्षणों से गुजरते हुए कुछ कर्षण प्राप्त करने की कोशिश कर रहे हैं, हालांकि इस बात पर विवाद है कि क्या इस परीक्षण को प्रति अनुमति दी जानी चाहिए (हम सभी जीवन-या-मृत्यु गिनी सूअर एक प्रयोग में हैं हमारे राजमार्गों और मार्गों पर हो रही है, कुछ दावेदार, मेरे कवरेज को देखते हैं इस लिंक यहाँ).

चूंकि अर्ध-स्वायत्त कारों के लिए एक मानव चालक की आवश्यकता होती है, इसलिए उन प्रकार की कारों को अपनाना पारंपरिक वाहनों को चलाने की तुलना में अलग नहीं होगा, इसलिए इस विषय पर उनके बारे में कवर करने के लिए प्रति से ज्यादा कुछ नया नहीं है (हालांकि, जैसा कि आप देखेंगे एक पल में, अगले अंक आम तौर पर लागू होते हैं)।

अर्ध-स्वायत्त कारों के लिए, यह महत्वपूर्ण है कि जनता को परेशान करने वाले पहलू के बारे में पूर्वाभास करने की आवश्यकता है, जो हाल ही में उत्पन्न हुई है, अर्थात् उन मानव चालकों के बावजूद जो खुद को स्तर 2 या स्तर 3 कार के सोते हुए वीडियो पोस्ट करते रहते हैं , हम सभी को यह मानने में गुमराह होने से बचने की आवश्यकता है कि चालक अर्ध-स्वायत्त कार चलाते समय ड्राइविंग कार्य से अपना ध्यान हटा सकता है।

आप वाहन के ड्राइविंग क्रियाओं के लिए जिम्मेदार पक्ष हैं, भले ही स्वचालन को स्तर 2 या स्तर 3 में कितना उछाला जाए।

सेल्फ-ड्राइविंग कार और टॉक्सिक एआई का स्टीयरिंग क्लियर

लेवल 4 और लेवल 5 के लिए सच सेल्फ-ड्राइविंग वाहन, ड्राइविंग कार्य में शामिल मानव चालक नहीं होंगे।

सभी रहने वाले यात्री होंगे।

एआई ड्राइविंग कर रहा है।

तुरंत चर्चा करने का एक पहलू इस तथ्य पर जोर देता है कि आज के एआई ड्राइविंग सिस्टम में शामिल एआई संवेदनशील नहीं है। दूसरे शब्दों में, AI पूरी तरह से कंप्यूटर-आधारित प्रोग्रामिंग और एल्गोरिदम का एक सामूहिक है, और सबसे अधिक आश्वस्त रूप से उसी तरीके से तर्क करने में सक्षम नहीं है जो मनुष्य कर सकते हैं।

एआई के संवेदनशील नहीं होने के बारे में यह अतिरिक्त जोर क्यों दिया जा रहा है?

क्योंकि मैं यह रेखांकित करना चाहता हूं कि जब एआई ड्राइविंग सिस्टम की भूमिका पर चर्चा हो रही है, तो मैं एआई को मानवीय गुणों का वर्णन नहीं कर रहा हूं। कृपया ध्यान रखें कि इन दिनों एंथ्रोपोमोर्फिफाई एआई के लिए चल रही और खतरनाक प्रवृत्ति है। संक्षेप में, लोग आज के एआई के लिए मानव जैसी भावना प्रदान कर रहे हैं, इसके बावजूद कि इस तरह का एआई अभी तक मौजूद नहीं है।

उस स्पष्टीकरण के साथ, आप कल्पना कर सकते हैं कि एआई ड्राइविंग सिस्टम ड्राइविंग के पहलुओं के बारे में मूल रूप से किसी तरह "जान" नहीं पाएगा। ड्राइविंग और इसके लिए जरूरी सभी चीजों को सेल्फ-ड्राइविंग कार के हार्डवेयर और सॉफ्टवेयर के हिस्से के रूप में प्रोग्राम करना होगा।

आइए इस विषय पर खेलने के लिए आने वाले पहलुओं के बारे में जानें।

सबसे पहले, यह महसूस करना महत्वपूर्ण है कि सभी AI सेल्फ-ड्राइविंग कारें समान नहीं होती हैं। प्रत्येक ऑटोमेकर और सेल्फ-ड्राइविंग टेक फर्म सेल्फ-ड्राइविंग कारों को तैयार करने के लिए अपना दृष्टिकोण अपना रही है। जैसे, एआई ड्राइविंग सिस्टम क्या करेगा या नहीं, इस बारे में व्यापक बयान देना मुश्किल है।

इसके अलावा, जब भी यह कहा जाता है कि एआई ड्राइविंग सिस्टम कुछ खास काम नहीं करता है, तो बाद में, यह डेवलपर्स द्वारा आगे निकल सकता है जो वास्तव में कंप्यूटर को उसी काम करने के लिए प्रोग्राम करता है। कदम दर कदम, एआई ड्राइविंग सिस्टम में धीरे-धीरे सुधार और विस्तार किया जा रहा है। एक मौजूदा सीमा आज भविष्य के पुनरावृत्ति या सिस्टम के संस्करण में मौजूद नहीं हो सकती है।

मुझे उम्मीद है कि जो मैं संबंधित करने जा रहा हूं उसे रेखांकित करने के लिए पर्याप्त चेतावनी प्रदान करता है।

कई संभावनाएं हैं और किसी दिन एआई-संक्रमित पूर्वाग्रहों का एहसास होने की संभावना है जो स्वायत्त वाहनों और सेल्फ-ड्राइविंग कारों के उद्भव का सामना करने जा रहे हैं, उदाहरण के लिए मेरी चर्चा देखें यहाँ लिंक और यहाँ लिंक. हम अभी भी सेल्फ-ड्राइविंग कार रोलआउट के शुरुआती चरण में हैं। जब तक गोद लेना पर्याप्त पैमाने और दृश्यता तक नहीं पहुंच जाता, तब तक एआई के बहुत से जहरीले पहलू जिनकी मैं भविष्यवाणी कर रहा था, अंततः होंगे अभी तक स्पष्ट रूप से स्पष्ट नहीं हैं और अभी तक व्यापक जनता का ध्यान आकर्षित नहीं किया है।

ड्राइविंग से संबंधित एक सीधे-सादे मामले पर विचार करें जो पहली बार में पूरी तरह से अहानिकर लग सकता है। विशेष रूप से, आइए जांच करें कि कैसे ठीक से निर्धारित किया जाए कि "स्वच्छ" पैदल चलने वालों की प्रतीक्षा करने के लिए रुकना है या नहीं, जिनके पास सड़क पार करने का अधिकार नहीं है।

आप निस्संदेह गाड़ी चला रहे हैं और पैदल चलने वालों का सामना कर रहे हैं जो सड़क पार करने की प्रतीक्षा कर रहे थे और फिर भी उनके पास ऐसा करने का अधिकार नहीं था। इसका मतलब यह था कि आपके पास विवेक था कि क्या रुकना है और उन्हें पार करने देना है। आप उन्हें पार किए बिना आगे बढ़ सकते हैं और फिर भी ऐसा करने के कानूनी ड्राइविंग नियमों के भीतर पूरी तरह से हो सकते हैं।

मानव चालक ऐसे पैदल चलने वालों के लिए रुकने या न रुकने का निर्णय कैसे लेते हैं, इसके अध्ययन ने सुझाव दिया है कि कभी-कभी मानव चालक अप्रिय पूर्वाग्रहों के आधार पर चुनाव करते हैं। एक मानव चालक पैदल चलने वाले पर नज़र रख सकता है और रुकने का विकल्प नहीं चुन सकता है, भले ही वे रुक गए होते, यदि पैदल यात्री की उपस्थिति अलग होती, जैसे कि जाति या लिंग के आधार पर। मैंने इसकी जांच की है यहाँ लिंक.

उसी तरह के स्टॉप-या-गो निर्णय लेने के लिए एआई ड्राइविंग सिस्टम को कैसे प्रोग्राम किया जाएगा?

आप घोषणा कर सकते हैं कि सभी एआई ड्राइविंग सिस्टम को किसी भी प्रतीक्षारत पैदल चलने वालों के लिए हमेशा रुकने के लिए प्रोग्राम किया जाना चाहिए। यह मामले को बहुत सरल करता है। वास्तव में कोई जटिल निर्णय नहीं लिया जाना है। यदि कोई पैदल यात्री पार करने का इंतजार कर रहा है, भले ही उनके पास रास्ता है या नहीं, सुनिश्चित करें कि एआई सेल्फ-ड्राइविंग कार रुक जाए ताकि पैदल यात्री पार कर सके।

बहुत आसान।

जीवन इतना आसान कभी नहीं होता, ऐसा लगता है। कल्पना कीजिए कि सभी सेल्फ-ड्राइविंग कारें इस नियम का पालन करती हैं। पैदल चलने वालों को अनिवार्य रूप से एहसास होगा कि एआई ड्राइविंग सिस्टम, हम कहेंगे, पुशओवर हैं। कोई भी और सभी पैदल यात्री जो सड़क पार करना चाहते हैं, वे जब चाहें और जहां कहीं भी हों, स्वेच्छा से ऐसा करेंगे।

मान लीजिए कि एक सेल्फ-ड्राइविंग कार 45 मील प्रति घंटे की निर्धारित गति सीमा पर तेज सड़क पर आ रही है। एक पैदल यात्री "जानता है" कि एआई सेल्फ-ड्राइविंग कार को रोक देगा। तो, पैदल यात्री गली में डार्ट्स। दुर्भाग्य से, भौतिकी AI पर जीत हासिल करती है। एआई ड्राइविंग सिस्टम सेल्फ-ड्राइविंग कार को रोकने की कोशिश करेगा, लेकिन स्वायत्त वाहन की गति मल्टी-टन कॉन्ट्रैक्शन को आगे ले जाने वाली है और राम को स्वच्छंद पैदल यात्री में ले जाने वाली है। परिणाम या तो हानिकारक होता है या घातक होता है।

जब पहिया पर एक मानव चालक होता है तो पैदल यात्री आमतौर पर इस प्रकार के व्यवहार की कोशिश नहीं करते हैं। ज़रूर, कुछ जगहों पर एक आंख-मिचौली का युद्ध होता है। एक पैदल यात्री एक ड्राइवर पर नज़र गड़ाए हुए है। चालक पैदल राहगीर पर नजर गड़ाए हुए है। परिस्थिति के आधार पर, चालक रुक सकता है या चालक सड़क पर अपने दावे का दावा कर सकता है और पैदल चलने वालों को उनके रास्ते को बाधित करने की कोशिश करने की हिम्मत कर सकता है।

हम संभवतः नहीं चाहते कि एआई एक समान नेत्रगोलक युद्ध में शामिल हो, जो वैसे भी थोड़ा चुनौतीपूर्ण है क्योंकि सेल्फ-ड्राइविंग कार के पहिए पर कोई व्यक्ति या रोबोट नहीं बैठा है (मैंने रोबोट की भविष्य की संभावना पर चर्चा की है) वह ड्राइव, देखें यहाँ लिंक) फिर भी हम पैदल चलने वालों को हमेशा शॉट लगाने की अनुमति नहीं दे सकते। परिणाम सभी संबंधितों के लिए विनाशकारी हो सकता है।

तब आप इस सिक्के के दूसरी तरफ पलटने के लिए ललचा सकते हैं और घोषणा कर सकते हैं कि ऐसी परिस्थितियों में AI ड्राइविंग सिस्टम कभी नहीं रुकना चाहिए। दूसरे शब्दों में, यदि किसी पैदल यात्री के पास सड़क पार करने का उचित अधिकार नहीं है, तो AI को हमेशा यह मान लेना चाहिए कि सेल्फ-ड्राइविंग कार को बिना रुके आगे बढ़ना चाहिए। उन पैदल चलने वालों के लिए कठिन भाग्य।

इस तरह के सख्त और सरल नियम को जनता बड़े पैमाने पर स्वीकार नहीं करेगी। लोग लोग हैं और वे सड़क पार करने में सक्षम होने के कारण पूरी तरह से बंद होना पसंद नहीं करेंगे, इसके बावजूद उनके पास विभिन्न सेटिंग्स में ऐसा करने के लिए कानूनी रूप से अधिकार की कमी है। आप आसानी से जनता से एक बड़े हंगामे का अनुमान लगा सकते हैं और संभवत: सेल्फ-ड्राइविंग कारों को अपनाने के खिलाफ एक प्रतिक्रिया होती है।

अगर हम करते हैं तो रफ़ू हो जाते हैं, और अगर हम नहीं करते हैं तो रफ़ू हो जाते हैं।

मुझे आशा है कि इसने आपको तर्कसंगत विकल्प की ओर अग्रसर किया है कि इस ड्राइविंग समस्या से निपटने के तरीके के बारे में निर्णय लेने के लिए एआई को प्रोग्राम करने की आवश्यकता है। कभी न रुकने का कठोर नियम अस्थिर है, और इसी तरह, हमेशा रुकने का कठोर नियम भी अस्थिर है। मामले से निपटने के लिए एआई को कुछ एल्गोरिथम निर्णय लेने या एडीएम के साथ तैयार किया जाना है।

आप एक एमएल/डीएल दृष्टिकोण के साथ मिलकर डेटासेट का उपयोग करने का प्रयास कर सकते हैं।

यहां बताया गया है कि AI डेवलपर इस कार्य को प्रोग्राम करने का निर्णय कैसे ले सकते हैं। वे वीडियो कैमरों से डेटा एकत्र करते हैं जो एक विशेष शहर के चारों ओर रखे जाते हैं जहां सेल्फ-ड्राइविंग कार का उपयोग किया जा रहा है। डेटा तब दिखाता है जब मानव चालक पैदल चलने वालों के लिए रुकने का विकल्प चुनते हैं जिनके पास सही रास्ता नहीं है। यह सब एक डेटासेट में एकत्र किया जाता है। मशीन लर्निंग और डीप लर्निंग का उपयोग करके, डेटा को कम्प्यूटेशनल रूप से तैयार किया जाता है। एआई ड्राइविंग सिस्टम तब इस मॉडल का उपयोग यह तय करने के लिए करता है कि कब रुकना है या नहीं।

आम तौर पर, विचार यह है कि स्थानीय रिवाज में जो कुछ भी शामिल है, एआई इस तरह से सेल्फ-ड्राइविंग कार को निर्देशित कर रहा है। समस्या हल हो गई!

लेकिन, क्या यह सचमुच हल हो गया है?

याद रखें कि मैंने पहले ही बताया था कि ऐसे शोध अध्ययन हैं जो दिखाते हैं कि पैदल चलने वालों के लिए कब रुकना है, इस पर मानव चालक पक्षपाती हो सकते हैं। किसी विशेष शहर के बारे में एकत्र किए गए डेटा में संभवतः उन पूर्वाग्रहों को समाहित किया जा रहा है। उस डेटा के आधार पर एक एआई एमएल/डीएल तब संभावित मॉडल होगा और उन्हीं पूर्वाग्रहों को प्रतिबिंबित करेगा। एआई ड्राइविंग सिस्टम केवल उन्हीं मौजूदा पूर्वाग्रहों को पूरा करेगा।

इस मुद्दे से निपटने और संघर्ष करने के लिए, हम एक ऐसे डेटासेट को एक साथ रख सकते हैं जिसमें वास्तव में ऐसे पूर्वाग्रह हों। हम या तो ऐसा डेटासेट ढूंढते हैं और फिर पूर्वाग्रहों को लेबल करते हैं, या हम मामले को स्पष्ट करने में सहायता के लिए कृत्रिम रूप से डेटासेट बनाते हैं।

पहले से पहचाने गए सभी कदम उठाए जाएंगे, जिनमें शामिल हैं:

  • एक डेटासेट सेट करें जिसमें जानबूझकर यह विशेष पूर्वाग्रह शामिल हो
  • इस विशिष्ट पूर्वाग्रह का पता लगाने के बारे में मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) मॉडल को प्रशिक्षित करने के लिए डेटासेट का उपयोग करें
  • अन्य एआई की ओर पूर्वाग्रह-प्रशिक्षित एमएल / डीएल लागू करें ताकि यह पता लगाया जा सके कि लक्षित एआई संभावित रूप से इसी तरह से पक्षपाती है या नहीं।
  • एआई बिल्डरों को दिखाने के लिए पूर्वाग्रह-प्रशिक्षित एमएल/डीएल उपलब्ध कराएं ताकि वे आसानी से अपने मॉडल का निरीक्षण कर सकें कि एल्गोरिथम से प्रभावित पूर्वाग्रह कैसे उत्पन्न होते हैं
  • इस अतिरिक्त विशिष्ट उदाहरण के माध्यम से एआई एथिक्स और एथिकल एआई जागरूकता के हिस्से के रूप में पक्षपाती एआई के खतरों का उदाहरण दें।
  • अन्य

निष्कर्ष

आइए ओपनिंग लाइन को फिर से देखें।

जैसा मैं हूं वैसे ही तुम हो।

कुछ लोग व्याख्या करते हैं कि यह अविश्वसनीय रूप से प्रचलित कहावत का तात्पर्य है कि जब जहरीले एआई को बाहर निकालने की बात आती है, तो हमें अन्य जहरीले एआई की खोज और उससे निपटने के लिए जहरीले एआई के निर्माण और उपयोग को उचित श्रेय देना चाहिए। निचला रेखा: कभी-कभी एक चोर को दूसरे चोर को पकड़ने में लग जाता है।

एक आवाज उठाई गई चिंता यह है कि शायद हम चोर बनाने के लिए अपने रास्ते से हट रहे हैं। क्या हम ऐसे AI को विकसित करना चाहते हैं जो विषाक्त हो? क्या यह एक पागल विचार की तरह नहीं लगता? कुछ लोग जोरदार तर्क देते हैं कि हमें ऐसे एआई सहित सभी जहरीले एआई पर प्रतिबंध लगा देना चाहिए, जो जानबूझकर बनाया गया था, भले ही वह एक वीर या वीरता के लिए ही क्यों न बनाया गया हो। एआई फॉर गुड उद्देश्य।

जहरीले एआई को किसी भी चतुर या कपटी भेष में निचोड़ें जो वह उत्पन्न हो सकता है।

इस विषय पर अभी के लिए एक अंतिम मोड़। हम आमतौर पर यह मान लेते हैं कि इस प्रसिद्ध पंक्ति का संबंध उन लोगों या चीजों से है जो बुरे या खट्टे कार्य करते हैं। इस तरह हम इस धारणा पर उतरते हैं कि चोर को पकड़ने के लिए चोर की जरूरत होती है। हो सकता है कि हम इस कहावत को अपने सिर पर रख लें और इसे उदास चेहरे से ज्यादा खुश चेहरा बना दें।

ऐसे।

अगर हम एआई चाहते हैं जो निष्पक्ष और गैर-विषाक्त है, तो यह अनुमान लगाया जा सकता है कि किसी को जानने के लिए हमें लगता है। शायद महानता और अच्छाई को पहचानने और प्राप्त करने के लिए सबसे बड़ा और सर्वोत्तम समय लगता है। ऋषि ज्ञान के इस रूप में, हम प्रसन्न चेहरे पर अपनी नजर रखते हैं और योजना बनाने पर ध्यान केंद्रित करने का लक्ष्य रखते हैं एआई फॉर गुड।

यदि आप जानते हैं कि मेरा क्या मतलब है, तो यह एक अधिक उत्साहित और संतोषजनक रूप से हर्षित दृष्टिकोण होगा।

स्रोत: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- लाभकारी-सहित-उन-के लिए-स्वायत्त-स्व-ड्राइविंग-कार/