एआई नैतिकता कह रही है कि एआई को विशेष रूप से तैनात किया जाना चाहिए जब मानव पूर्वाग्रह पर्याप्त हों

मनुष्य को अपनी सीमाओं का पता चल गया है।

आपको हमारी सीमाओं को जानने के बारे में प्रसिद्ध पंक्ति याद हो सकती है, जैसा कि 1973 की फिल्म में डर्टी हैरी के चरित्र द्वारा गंभीर रूप से कहा गया था। मैग्नम फोर्स (इंस्पेक्टर हैरी कैलहन के रूप में उनकी यादगार भूमिका में अभिनेता क्लिंट ईस्टवुड के बोले गए शब्दों के अनुसार)। समग्र धारणा यह है कि कभी-कभी हम अपनी सीमाओं को नजरअंदाज कर देते हैं और उसी के अनुसार गर्म पानी में उतर जाते हैं। चाहे अभिमान के कारण, अहंकारी होने के कारण, या बस अपनी क्षमताओं के प्रति अंधे होने के कारण, हमारी प्रवृत्तियों और कमियों के बारे में जागरूक होने और स्पष्ट खाते में लेने का सिद्धांत काफी समझदार और सहायक है।

आइए ऋषि सलाह में एक नया मोड़ जोड़ें।

आर्टिफिशियल इंटेलिजेंस (एआई) को अपनी सीमाएं पता चल गई हैं।

आदरणीय वाक्यांश के उस रूप से मेरा क्या मतलब है?

यह पता चला है कि आधुनिक एआई को दुनिया की समस्याओं के एक आशावादी समाधानकर्ता के रूप में उपयोग में लाने की शुरुआती भीड़ इस अहसास से पूरी तरह से धुंधली और पूरी तरह से गड़बड़ हो गई है कि आज के एआई में कुछ गंभीर सीमाएं हैं। हम उत्थान की सुर्खियों से गए एआई फॉर गुड और तेजी से खुद को इसमें फंसा हुआ पाया है एआई फॉर बैड. आप देखते हैं, कई एआई सिस्टम विकसित किए गए हैं और सभी प्रकार के अप्रिय नस्लीय और लैंगिक पूर्वाग्रहों के साथ, और इस तरह की अन्य भयावह असमानताओं के असंख्य हैं।

एआई एथिक्स और एथिकल एआई के मेरे व्यापक और चल रहे कवरेज के लिए, देखें यहाँ लिंक और यहाँ लिंक, कुछ लोगों का नाम बताने के लिए।

इन एआई सिस्टम में खोजे जा रहे पूर्वाग्रह उस प्रकार के नहीं हैं जिसे हम "जानबूझकर" कहते हैं जिसे हम मानव व्यवहार के लिए जिम्मेदार ठहराएंगे। मैं इसका उल्लेख इस बात पर जोर देने के लिए करता हूं कि आज का AI संवेदनशील नहीं है। उन चमकदार सुर्खियों के बावजूद जो अन्यथा सुझाव देते हैं, कहीं भी कोई एआई नहीं है जो भावना के करीब भी आता है। उसके ऊपर, हम नहीं जानते कि एआई को सेंटीन्स ब्रैकेट में कैसे लाया जाए, साथ ही कोई भी निश्चित रूप से यह नहीं कह सकता है कि हम कभी एआई की भावना प्राप्त करेंगे या नहीं। शायद किसी दिन ऐसा होगा, या शायद नहीं।

इसलिए, मेरा कहना है कि हम विशेष रूप से उस तरह के एआई को इरादा नहीं दे सकते जो वर्तमान में हमारे पास है। कहा जा रहा है, हम बहुतायत से उन लोगों को इरादा दे सकते हैं जो एआई सिस्टम तैयार कर रहे हैं। कुछ एआई डेवलपर्स इस तथ्य से अनजान हैं कि उन्होंने एक एआई सिस्टम तैयार किया है जिसमें बेस्वाद और संभवतः अवैध पूर्वाग्रह शामिल हैं। इस बीच, अन्य एआई डेवलपर्स को एहसास होता है कि वे अपने एआई सिस्टम में पूर्वाग्रहों को शामिल कर रहे हैं, संभावित रूप से एक उद्देश्यपूर्ण गलत तरीके से ऐसा कर रहे हैं।

किसी भी तरह से, परिणाम अभी भी अनुचित और संभावित रूप से गैरकानूनी है।

एआई एथिक्स सिद्धांतों को प्रख्यापित करने के लिए कड़े प्रयास चल रहे हैं जो एआई डेवलपर्स को प्रबुद्ध करेंगे और उनके एआई सिस्टम में पूर्वाग्रह को स्पष्ट करने के लिए उपयुक्त मार्गदर्शन प्रदान करेंगे। यह दोतरफा फैशन में मदद करेगा। सबसे पहले, एआई को तैयार करने वालों के पास अब तैयार बहाना नहीं होगा कि वे सिर्फ इस बात से परिचित नहीं थे कि किन उपदेशों का पालन किया जाना चाहिए। दूसरा, जो नैतिक एआई स्थितियों से वीर होते हैं, उन्हें अधिक आसानी से पकड़ा जाएगा और उन्हें टालने के रूप में दिखाया जाएगा, जो उन्हें करने और न करने दोनों के लिए आगाह किया गया था।

आइए संक्षेप में कुछ प्रमुख नैतिक एआई उपदेशों पर विचार करें जो यह स्पष्ट करते हैं कि एआई बिल्डरों को एआई एथिक्स के रुख के बारे में क्या सोचना चाहिए और सख्ती से काम करना चाहिए।

जैसा कि वेटिकन ने कहा है रोम कॉल फॉर एआई एथिक्स और जैसा कि मैंने गहराई से कवर किया है यहाँ लिंक, ये उनके पहचाने गए छह प्राथमिक AI नैतिकता सिद्धांत हैं:

  • पारदर्शिता: सिद्धांत रूप में, AI सिस्टम को समझाने योग्य होना चाहिए
  • समावेशन: सभी मनुष्यों की आवश्यकताओं को ध्यान में रखा जाना चाहिए ताकि हर कोई लाभान्वित हो सके, और सभी व्यक्तियों को स्वयं को व्यक्त करने और विकसित करने के लिए सर्वोत्तम संभव परिस्थितियों की पेशकश की जा सके।
  • ज़िम्मेदारी: जो लोग एआई के उपयोग को डिजाइन और तैनात करते हैं, उन्हें जिम्मेदारी और पारदर्शिता के साथ आगे बढ़ना चाहिए
  • निष्पक्षता: पूर्वाग्रह के अनुसार निर्माण या कार्य न करें, इस प्रकार निष्पक्षता और मानवीय गरिमा की रक्षा करें
  • विश्वसनीयता: AI सिस्टम मज़बूती से काम करने में सक्षम होना चाहिए
  • सुरक्षा और गोपनीयता: AI सिस्टम को सुरक्षित रूप से काम करना चाहिए और उपयोगकर्ताओं की गोपनीयता का सम्मान करना चाहिए।

जैसा कि अमेरिकी रक्षा विभाग (DoD) ने अपने में कहा है आर्टिफिशियल इंटेलिजेंस के उपयोग के लिए नैतिक सिद्धांत और जैसा कि मैंने गहराई से कवर किया है यहाँ लिंक, ये उनके छह प्राथमिक AI नैतिकता सिद्धांत हैं:

  • उत्तरदायी: DoD कर्मी एआई क्षमताओं के विकास, परिनियोजन और उपयोग के लिए जिम्मेदार रहते हुए उचित स्तर के निर्णय और देखभाल का प्रयोग करेंगे।
  • न्यायसंगत: विभाग एआई क्षमताओं में अनपेक्षित पूर्वाग्रह को कम करने के लिए जानबूझकर कदम उठाएगा।
  • पता लगाने योग्य: विभाग की एआई क्षमताओं को इस तरह विकसित और तैनात किया जाएगा कि संबंधित कर्मियों को पारदर्शी और श्रवण योग्य पद्धतियों, डेटा स्रोतों और डिजाइन प्रक्रिया और दस्तावेज़ीकरण सहित एआई क्षमताओं पर लागू प्रौद्योगिकी, विकास प्रक्रियाओं और परिचालन विधियों की उचित समझ हो।
  • विश्वसनीय: विभाग की एआई क्षमताओं में स्पष्ट, अच्छी तरह से परिभाषित उपयोग होंगे, और ऐसी क्षमताओं की सुरक्षा, सुरक्षा और प्रभावशीलता उनके पूरे जीवन चक्र में परिभाषित उपयोगों के भीतर परीक्षण और आश्वासन के अधीन होगी।
  • शासन योग्य: विभाग अपने इच्छित कार्यों को पूरा करने के लिए एआई क्षमताओं को डिजाइन और इंजीनियर करेगा, जबकि अनपेक्षित परिणामों का पता लगाने और उनसे बचने की क्षमता रखता है, और अनपेक्षित व्यवहार प्रदर्शित करने वाले तैनात सिस्टम को निष्क्रिय या निष्क्रिय करने की क्षमता रखता है।

मैंने एआई नैतिकता सिद्धांतों के विभिन्न सामूहिक विश्लेषणों पर भी चर्चा की है, जिसमें शोधकर्ताओं द्वारा तैयार किए गए एक सेट को शामिल किया गया है, जिसने "एआई एथिक्स दिशानिर्देशों का वैश्विक परिदृश्य" नामक एक पेपर में कई राष्ट्रीय और अंतर्राष्ट्रीय एआई नैतिकता सिद्धांतों के सार की जांच और संघनित किया है। में प्रकृति), और यह कि मेरा कवरेज यहां पर पड़ताल करता है यहाँ लिंक, जिसने इस कीस्टोन सूची का नेतृत्व किया:

  • ट्रांसपेरेंसी
  • न्याय और निष्पक्षता
  • गैर-नुकसान
  • उत्तरदायित्व
  • निजता
  • उपकार
  • स्वतंत्रता और स्वायत्तता
  • ट्रस्ट
  • स्थिरता
  • गौरव
  • एकजुटता

जैसा कि आप सीधे तौर पर अनुमान लगा सकते हैं, इन सिद्धांतों में अंतर्निहित विशिष्टताओं को स्पष्ट करने का प्रयास करना बेहद कठिन हो सकता है। इससे भी अधिक, एआई सिस्टम तैयार करते समय उन व्यापक सिद्धांतों को पूरी तरह से मूर्त और विस्तृत बनाने का प्रयास भी एक कठिन काम है। एआई नैतिकता के सिद्धांत क्या हैं और उन्हें आम तौर पर कैसे देखा जाना चाहिए, इसके बारे में कुल मिलाकर कुछ हाथ मिलाना आसान है, जबकि एआई कोडिंग सड़क से मिलने वाला वास्तविक रबर होने पर यह बहुत अधिक जटिल स्थिति है।

एआई नैतिकता सिद्धांतों का उपयोग एआई डेवलपर्स द्वारा किया जाना चाहिए, साथ ही उन लोगों द्वारा भी जो एआई विकास प्रयासों का प्रबंधन करते हैं, और यहां तक ​​कि उन लोगों द्वारा भी जो अंततः एआई सिस्टम पर फील्डिंग और रखरखाव करते हैं। विकास और उपयोग के संपूर्ण एआई जीवन-चक्र में सभी हितधारकों को नैतिक एआई के स्थापित मानदंडों का पालन करने के दायरे में माना जाता है। यह एक महत्वपूर्ण आकर्षण है क्योंकि सामान्य धारणा यह है कि "केवल कोडर्स" या जो एआई को प्रोग्राम करते हैं वे एआई एथिक्स धारणाओं का पालन करने के अधीन हैं। कृपया ध्यान रखें कि एआई को विकसित करने और फील्डिंग करने के लिए एक गांव की आवश्यकता होती है। जिसके लिए पूरे गांव को एआई एथिक्स के बारे में जागरूक रहना होगा।

वैसे भी, अब जब मैं टेबल पर आ गया हूं कि एआई में पूर्वाग्रह हो सकते हैं, तो हम शायद इन दो स्पष्ट तथ्यों से सहमत हो सकते हैं:

1. मनुष्य के पास कई अप्रिय पूर्वाग्रह हो सकते हैं और उन पर कार्रवाई कर सकते हैं

2. एआई में कई अवांछित पूर्वाग्रह हो सकते हैं और उन पूर्वाग्रहों पर कार्य कर सकते हैं

मैं उस संदर्भ में मानव बनाम एआई को ढेर करने के लिए कुछ हद तक घृणा करता हूं क्योंकि इसका मतलब यह हो सकता है कि एआई में मनुष्यों के बराबर संवेदनशील क्षमताएं हैं। यह निश्चित रूप से ऐसा नहीं है। मैं इस चर्चा में थोड़ी देर बाद एआई के मानवरूपीकरण के बारे में बढ़ती चिंताओं पर लौटूंगा।

कौन सा बदतर है, मनुष्य जो अवांछित पूर्वाग्रह प्रदर्शित करते हैं या एआई ऐसा करते हैं?

मैं यह कहने की हिम्मत करता हूं कि प्रश्न उन कठिन विकल्पों में से एक है। यह दो बुराइयों में से एक कहावत है, जिसका कोई विरोध कर सकता है। हम चाहते हैं कि मनुष्य किसी भी तरह के पक्षपातपूर्ण पूर्वाग्रह को न अपनाएं। हम आगे यह चाहेंगे कि यदि मनुष्यों में भी प्रतिकूल पक्षपात होता है तो वे उन पूर्वाग्रहों पर कार्य नहीं करेंगे। एआई के बारे में भी यही कहा जा सकता है। हम चाहते हैं कि एआई अवांछित पूर्वाग्रहों को एम्बेड न करे और भले ही आंतरिक रूप से कोडित पूर्वाग्रह हों कि एआई कम से कम उन पर कार्रवाई नहीं करेगा।

इच्छाएं हालांकि दुनिया को चलाने के लिए जरूरी नहीं हैं (तथाकथित की बढ़ती और परेशान करने वाली समानता के मेरे विश्लेषण के लिए) ऐ इच्छा पूर्ति समाज द्वारा बड़े पैमाने पर, देखें यहाँ लिंक).

ठीक है, हम स्पष्ट रूप से चाहते हैं कि मनुष्य अपनी सीमाओं को जानें। जब आपके पास अप्रिय पूर्वाग्रह हों तो पहचानने का महत्व है। उन अप्रिय पूर्वाग्रहों को आपके कार्यों और निर्णयों में शामिल होने से रोकने के प्रयास में समान महत्व है। व्यवसाय आज अपने कर्मचारियों को अवांछित पूर्वाग्रहों के गंभीर नुकसान में पड़ने से बचाने के लिए हर तरह के तरीकों की कोशिश कर रहे हैं। कर्मचारियों को नैतिक रूप से सही तरीके से अपना काम कैसे करना है, इस बारे में विशेष प्रशिक्षण दिया जा रहा है। कर्मचारियों के इर्द-गिर्द प्रक्रियाओं को आकार दिया जाता है ताकि उन्हें सचेत किया जा सके जब वे अनैतिक आचरण का प्रदर्शन कर रहे हों। और इसी तरह।

मनुष्यों और उनके अवांछित पूर्वाग्रहों से निपटने का एक अन्य साधन मानव-आधारित कार्य को स्वचालित करना होगा। हां, बस मानव को लूप से हटा दें। किसी व्यक्ति को निर्णय लेने का कार्य करने की अनुमति न दें और संभवतः अब आपको किसी भी अप्रिय पूर्वाग्रह के प्रति मानव के असर के बारे में कोई चिंता नहीं है। इसमें कोई मानव शामिल नहीं है और इस प्रकार संभावित मानवीय पूर्वाग्रहों की समस्या हल होती दिख रही है।

मैं इसे इसलिए लाता हूं क्योंकि हम एल्गोरिथम निर्णय लेने (एडीएम) तरीके से एआई का उपयोग करने की दिशा में एक क्रमिक और बड़े पैमाने पर बदलाव देख रहे हैं। यदि आप एक मानव कार्यकर्ता को एआई से बदल सकते हैं, तो संभावना है कि बहुत सारे लाभ पैदा होंगे। जैसा कि पहले ही उल्लेख किया गया है, आप अब उस मानव कार्यकर्ता के मानवीय पूर्वाग्रहों के बारे में चिंतित नहीं होंगे (वह जो अब वह काम नहीं कर रहा है)। संभावना है कि लंबी अवधि के समय क्षितिज की तुलना में एआई समग्र रूप से कम खर्चीला होगा। आप अन्य सभी मिश्रित कठिनाइयों को दूर करते हैं जो मानव श्रमिकों के साथ अलग-अलग आती हैं। आदि।

एक प्रस्ताव जो जोर पकड़ रहा है, ऐसा प्रतीत होता है: यह तय करने का प्रयास करते समय कि एआई को सबसे अच्छी जगह कहाँ रखा जाए, पहले उन सेटिंग्स की ओर देखें, जो पहले से ही आपके कार्यकर्ताओं द्वारा अवांछित मानवीय पूर्वाग्रहों को शामिल करती हैं और जिसके लिए वे पूर्वाग्रह कम कर रहे हैं या अन्यथा विशेष निर्णय लेने के कार्यों को अत्यधिक जटिल बना रहे हैं।

लब्बोलुआब यह है कि एआई में निवेश करने के मामले में अपने हिरन के लिए सबसे अधिक धमाका करना समझदारी होगी, जो अत्यधिक उजागर मानव निर्णय लेने वाले कार्यों पर वर्गाकार रूप से लक्षित होता है, जो एक अप्रिय पूर्वाग्रह के दृष्टिकोण से नियंत्रित करना कठिन होता है। उस भूमिका में मानव श्रमिकों को हटा दें। उन्हें एआई से बदलें। धारणा यह है कि एआई में इस तरह के अप्रिय पूर्वाग्रह नहीं होंगे। इसलिए, आप अपना केक ले सकते हैं और इसे भी खा सकते हैं, अर्थात्, निर्णय कार्यों को प्राप्त कर सकते हैं और अवांछित पूर्वाग्रहों के नैतिक और कानूनी दर्शक को छोड़कर ऐसा कर सकते हैं।

जब आप इसे स्पष्ट करते हैं, तो आरओआई (निवेश पर वापसी) एआई को अपनाने की संभावना को एक बिना दिमाग वाला विकल्प बना देगा।

यहां बताया गया है कि यह आमतौर पर कैसे चलता है।

अपनी पूरी फर्म को देखें और ग्राहकों को प्रभावित करने वाले निर्णय लेने वाले कार्यों की पहचान करने का प्रयास करें। उन कार्यों में से, यदि कार्यकर्ता अनुचित पक्षपात कर रहे हैं, तो उनमें से किन कार्यों के अनुपयुक्त रूप से प्रभावित होने की सबसे अधिक संभावना है? यदि आप पहले से ही उन पूर्वाग्रहों पर लगाम लगाने की कोशिश कर चुके हैं, तो हो सकता है कि आप चीजों को वैसे ही रहने दें। दूसरी ओर, यदि पूर्वाग्रह फिर से प्रकट होते रहते हैं और उन पर मुहर लगाने का प्रयास कठिन है, तो उस भूमिका में कुछ प्रासंगिक एआई को छोड़ने पर विचार करें। श्रमिकों को मिश्रण में न रखें क्योंकि वे एआई को ओवरराइड कर सकते हैं या एआई को वापस अवांछित पूर्वाग्रहों के रसातल में धकेल सकते हैं। इसके अलावा, सुनिश्चित करें कि एआई कार्य को कुशलता से कर सकता है और आपने कार्य करने के लिए आवश्यक निर्णय लेने वाले पहलुओं को पर्याप्त रूप से पकड़ लिया है।

धोये और दोहराएं।

मुझे एहसास है कि यह एक सीधी धारणा की तरह लगता है, हालांकि यह महसूस होता है कि ऐसे कई तरीके हैं जिनसे एआई के साथ मानव श्रमिकों की जगह आसानी से खराब हो सकती है। कई कंपनियां इस तरह की कार्रवाई करने के लिए उत्सुक थीं और इस पर विचार नहीं किया कि ऐसा कैसे किया जाए। नतीजतन, उन्होंने शुरू करने के लिए अपने हाथों की तुलना में अक्सर बहुत खराब गड़बड़ी की।

मैं स्पष्ट करना चाहता हूं और जोर देना चाहता हूं कि एआई रामबाण नहीं है।

जिसके बारे में बोलते हुए, कथित तौर पर निष्पक्ष एआई के साथ मानव-पक्षपाती निर्णय लेने वालों को बाहर करने की स्वच्छता के बारे में एक बड़ी अड़चन है। अड़चन यह है कि हो सकता है कि आप केवल एक सेट को दूसरे के लिए अवांछित पूर्वाग्रहों के स्थान पर प्रतिस्थापित कर रहे हों। पहले के संकेत के अनुसार, एआई में अवांछित पूर्वाग्रह हो सकते हैं और उन पूर्वाग्रहों पर कार्य कर सकते हैं। एक बेशर्म धारणा बनाना कि पक्षपाती इंसानों को निष्पक्ष एआई के लिए स्वैप करना केवल इतना ही नहीं है।

संक्षेप में, पूर्वाग्रह कारकों से मामले को सख्ती से देखने पर यहां सौदा है:

  • एआई में कोई अप्रिय पूर्वाग्रह नहीं है और एआई-आधारित एडीएम को तैनात करना आसान है
  • एआई में भी इंसानों की तरह ही अवांछित पूर्वाग्रह हैं और इसलिए एआई-आधारित एडीएम परेशान कर रहा है।
  • एआई बदले हुए इंसानों से परे नए अप्रिय पूर्वाग्रहों का परिचय देता है और इसके अनुसार चीजों को और खराब कर सकता है
  • एआई पहले तो ठीक लगता है और फिर धीरे-धीरे अवांछित पूर्वाग्रहों में बदल जाता है
  • अन्य

हम उन संभावनाओं को संक्षेप में खोल सकते हैं।

पहला जो हो सकता है उसका आदर्श संस्करण है। एआई के पास कोई अप्रिय पूर्वाग्रह नहीं है। आपने एआई को जगह दी है और यह शानदार तरीके से काम करता है। तुम्हारे के लिए अच्छा है! बेशक, कोई उम्मीद करेगा कि आपने एआई समावेशन के कारण मानव श्रमिकों के विस्थापन को भी किसी न किसी तरह से संभाला है।

दूसरे मामले में, आप एआई को स्थापित करते हैं और पाते हैं कि एआई उसी अप्रिय पूर्वाग्रह का प्रदर्शन कर रहा है जो मानव श्रमिकों के पास था। यह कैसे हो सकता है? इस जाल में पड़ने का एक सामान्य साधन मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) का उपयोग करना है, जो इस बात के एकत्रित आंकड़ों के आधार पर है कि भूमिका में इंसान पहले अपने निर्णय कैसे ले रहे थे।

मुझे समझाने के लिए एक क्षण की अनुमति दें।

एमएल/डीएल कम्प्यूटेशनल पैटर्न मिलान का एक रूप है। सामान्य तरीका यह है कि आप निर्णय लेने के कार्य के बारे में डेटा इकट्ठा करते हैं। आप डेटा को ML/DL कंप्यूटर मॉडल में फीड करते हैं। वे मॉडल गणितीय पैटर्न खोजने की कोशिश करते हैं। ऐसे पैटर्न खोजने के बाद, यदि ऐसा पाया जाता है, तो AI सिस्टम नए डेटा का सामना करते समय उन पैटर्न का उपयोग करेगा। नए डेटा की प्रस्तुति पर, वर्तमान निर्णय को प्रस्तुत करने के लिए "पुराने" या ऐतिहासिक डेटा पर आधारित पैटर्न लागू होते हैं।

मुझे लगता है कि आप अनुमान लगा सकते हैं कि यह कहाँ जा रहा है। अगर सालों से काम कर रहे इंसानों ने अवांछित पूर्वाग्रहों को शामिल किया है, तो संभावना है कि डेटा इसे सूक्ष्म लेकिन महत्वपूर्ण तरीकों से दर्शाता है। मशीन लर्निंग या डीप लर्निंग कम्प्यूटेशनल पैटर्न मिलान केवल गणितीय रूप से डेटा की नकल करने की कोशिश करेगा। मॉडलिंग के सामान्य ज्ञान या अन्य संवेदनशील पहलुओं की कोई समानता नहीं है।

इसके अलावा, एआई डेवलपर्स को एहसास नहीं हो सकता है कि क्या हो रहा है। रहस्यमय गणित अब छिपे हुए पूर्वाग्रहों को दूर करना मुश्किल बना सकता है। आप सही उम्मीद करेंगे और उम्मीद करेंगे कि एआई डेवलपर्स संभावित दफन पूर्वाग्रहों के लिए परीक्षण करेंगे, हालांकि यह जितना प्रतीत हो सकता है उससे कहीं अधिक कठिन है। एक ठोस मौका मौजूद है कि अपेक्षाकृत व्यापक परीक्षण के साथ भी एमएल/डीएल के पैटर्न मिलान मॉडल के भीतर अभी भी पूर्वाग्रह अंतर्निहित होंगे।

सभी ने बताया, आप एक वर्ग में वापस आ सकते हैं। मनुष्यों के वही अप्रिय पूर्वाग्रह अब एआई सिस्टम में कम्प्यूटेशनल रूप से प्रतिबिंबित होते हैं। आपने पूर्वाग्रहों को मिटाया नहीं है।

इससे भी बदतर, आपको यह महसूस करने की संभावना कम हो सकती है कि एआई में पूर्वाग्रह हैं। मनुष्यों के मामले में, आप सामान्य रूप से इस बात से सावधान रह सकते हैं कि मनुष्यों के पास अवांछित पूर्वाग्रह हैं। यह एक आधार अपेक्षा है। एआई का उपयोग नेताओं को यह विश्वास दिलाने में मदद कर सकता है कि स्वचालन ने किसी भी प्रकार के मानवीय पूर्वाग्रह को पूरी तरह से हटा दिया है। इस प्रकार वे खुद को पैर में गोली मारने के लिए खुद को स्थापित कर रहे हैं। उन्होंने प्रतीत होता है कि अवांछित पूर्वाग्रहों के साथ मनुष्यों से छुटकारा पा लिया, एआई द्वारा प्रतिस्थापित किया जा रहा था जिसके बारे में सोचा गया था कि ऐसा कोई पूर्वाग्रह नहीं है, और फिर भी अब एआई का उपयोग उसी पूर्वाग्रह से भरा हुआ है जो पहले से मौजूद है।

यह चीजों को वास्तव में क्रॉस-आइड कर सकता है। आपने मानव श्रमिकों के साथ उपयोग की जा रही अन्य रेलिंगों को हटा दिया होगा जो पहले से ही प्रत्याशित मानव पूर्वाग्रहों के उद्भव का पता लगाने और उन्हें रोकने के लिए स्थापित की गई थीं। एआई के पास अब स्वतंत्र लगाम है। अभिनय करने से पहले इसे पकड़ने के लिए कुछ भी नहीं है। एआई तब आपको पक्षपाती कार्यों के विशाल संचय के एक कठिन मार्ग पर ले जाना शुरू कर सकता है।

और, आप अजीब और शायद उत्तरदायी मुद्रा में हैं कि आप एक बार पूर्वाग्रहों के बारे में जानते थे और अब उन पूर्वाग्रहों को कहर बरपाने ​​दिया है। यह शायद एक बात है कि कभी भी इस तरह के किसी भी अप्रिय पूर्वाग्रह का सामना नहीं करना पड़ा है और फिर अचानक से एआई उन्हें उगल देता है। आप इसे "जिसने अनुमान लगाया होगा" प्रकार के विचलित करने वाले (बहुत आश्वस्त नहीं, शायद) के साथ बहाना करने का प्रयास कर सकते हैं। लेकिन अब एआई को स्थापित करने के लिए जो पहले की तरह ही अवांछित पक्षपाती कार्य कर रहा है, ठीक है, आपके बहाने पतले और लचर होते जा रहे हैं।

इस पर एक मोड़ एआई को अवांछित पूर्वाग्रहों को प्रदर्शित करने पर जोर देता है जो पहले मनुष्यों द्वारा कार्य करते समय सामने नहीं आए थे। आप कह सकते हैं कि इसे रोकना शायद कठिन है क्योंकि इसमें "नए" पूर्वाग्रह शामिल हैं जिनकी फर्म पहले तलाश नहीं कर रही थी। हालांकि, अंत में, बहाने शायद आपको ज्यादा राहत न दें। यदि एआई सिस्टम ने अनैतिक और गैरकानूनी दोनों क्षेत्रों में प्रवेश किया है, तो आपका हंस पकाया जा सकता है।

ध्यान में रखने वाला एक अन्य पहलू यह है कि एआई ठीक से शुरू हो सकता है और फिर अवांछित पूर्वाग्रहों में अपना रास्ता बना सकता है। यह विशेष रूप से तब होता है जब AI को अप-टू-डेट रखने के लिए मशीन लर्निंग या डीप लर्निंग का उपयोग निरंतर आधार पर होता है। चाहे एमएल/डीएल रीयल-टाइम में काम कर रहा हो या समय-समय पर अपडेट कर रहा हो, ध्यान इस बात पर होना चाहिए कि क्या एआई संभवत: ऐसे डेटा को निगल रहा है जिसमें अब पूर्वाग्रह हैं और जो पहले मौजूद नहीं थे।

उन नेताओं के लिए जो सोचते हैं कि उन्हें एआई के साथ पक्षपाती मानव श्रमिकों को बदलने के लिए जादू की छड़ी लहराकर मुफ्त दोपहर का भोजन मिल रहा है, वे बहुत कठोर जागृति के लिए हैं। एआई नैतिकता के नियमों के साथ नेताओं को सशक्त बनाने के महत्व के बारे में मेरी चर्चा देखें यहाँ लिंक.

इस चर्चा के इस मोड़ पर, मैं शर्त लगा सकता हूं कि आप कुछ वास्तविक दुनिया के उदाहरणों के इच्छुक हैं जो एआई-आधारित अवांछित पूर्वाग्रहों के साथ मानव अवांछित पूर्वाग्रहों को बदलने (या नहीं) की पहेली को प्रदर्शित कर सकते हैं।

मुझे खुशी है कि आपने पूछा।

उदाहरणों का एक विशेष और निश्चित रूप से लोकप्रिय सेट है जो मेरे दिल के करीब है। आप देखते हैं, एआई पर एक विशेषज्ञ के रूप में, जिसमें नैतिक और कानूनी प्रभाव शामिल हैं, मुझे अक्सर ऐसे यथार्थवादी उदाहरणों की पहचान करने के लिए कहा जाता है जो एआई एथिक्स दुविधाओं को प्रदर्शित करते हैं ताकि विषय की कुछ हद तक सैद्धांतिक प्रकृति को अधिक आसानी से समझा जा सके। एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन सबसे अधिक विकसित क्षेत्रों में से एक है जो इस नैतिक एआई विवाद को स्पष्ट रूप से प्रस्तुत करता है। यह विषय पर पर्याप्त चर्चा के लिए एक उपयोगी उपयोग के मामले या उदाहरण के रूप में काम करेगा।

यहाँ एक उल्लेखनीय प्रश्न है जो विचार करने योग्य है: क्या एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन एआई में अवांछित पूर्वाग्रहों के बारे में कुछ भी बताता है, और यदि हां, तो यह क्या प्रदर्शित करता है?

मुझे प्रश्न को अनपैक करने के लिए एक क्षण का समय दें।

सबसे पहले, ध्यान दें कि एक सच्ची सेल्फ-ड्राइविंग कार में कोई मानव चालक शामिल नहीं है। ध्यान रखें कि असली सेल्फ-ड्राइविंग कारें AI ड्राइविंग सिस्टम से चलती हैं। पहिए पर मानव चालक की आवश्यकता नहीं है, न ही मानव के लिए वाहन चलाने का प्रावधान है। स्वायत्त वाहनों (एवी) और विशेष रूप से सेल्फ-ड्राइविंग कारों के मेरे व्यापक और चल रहे कवरेज के लिए, देखें यहाँ लिंक.

मैं और स्पष्ट करना चाहता हूं कि जब मैं सच्ची सेल्फ-ड्राइविंग कारों का उल्लेख करता हूं तो इसका क्या मतलब होता है।

आत्म ड्राइविंग कारों के स्तर को समझना

स्पष्टीकरण के रूप में, सच्ची आत्म-ड्राइविंग कार वे हैं जो एआई पूरी तरह से अपने दम पर कार चलाती है और ड्राइविंग कार्य के दौरान कोई मानव सहायता नहीं है।

इन चालक रहित वाहनों को स्तर 4 और स्तर 5 माना जाता है (मेरी व्याख्या देखें) इस लिंक यहाँ), जबकि एक कार जिसमें ड्राइविंग प्रयास को सह-साझा करने के लिए मानव चालक की आवश्यकता होती है, आमतौर पर स्तर 2 या स्तर 3 पर विचार किया जाता है। ड्राइविंग कार्य को सह-साझा करने वाली कारों को अर्ध-स्वायत्त होने के रूप में वर्णित किया जाता है, और आमतौर पर इसमें कई प्रकार के होते हैं स्वचालित ऐड-ऑन जिन्हें ADAS (उन्नत ड्राइवर-सहायता प्रणाली) कहा जाता है।

लेवल 5 पर अभी तक एक सच्ची सेल्फ-ड्राइविंग कार नहीं है, जिसे हम अभी तक नहीं जानते हैं कि क्या यह प्राप्त करना संभव होगा, और न ही वहां पहुंचने में कितना समय लगेगा।

इस बीच, लेवल 4 के प्रयास धीरे-धीरे बहुत ही संकीर्ण और चयनात्मक सार्वजनिक सड़क मार्ग के परीक्षणों से गुजरते हुए कुछ कर्षण प्राप्त करने की कोशिश कर रहे हैं, हालांकि इस बात पर विवाद है कि क्या इस परीक्षण को प्रति अनुमति दी जानी चाहिए (हम सभी जीवन-या-मृत्यु गिनी सूअर एक प्रयोग में हैं हमारे राजमार्गों और मार्गों पर हो रही है, कुछ दावेदार, मेरे कवरेज को देखते हैं इस लिंक यहाँ).

चूंकि अर्ध-स्वायत्त कारों के लिए एक मानव चालक की आवश्यकता होती है, इसलिए उन प्रकार की कारों को अपनाना पारंपरिक वाहनों को चलाने की तुलना में अलग नहीं होगा, इसलिए इस विषय पर उनके बारे में कवर करने के लिए प्रति से ज्यादा कुछ नया नहीं है (हालांकि, जैसा कि आप देखेंगे एक पल में, अगले अंक आम तौर पर लागू होते हैं)।

अर्ध-स्वायत्त कारों के लिए, यह महत्वपूर्ण है कि जनता को परेशान करने वाले पहलू के बारे में पूर्वाभास करने की आवश्यकता है, जो हाल ही में उत्पन्न हुई है, अर्थात् उन मानव चालकों के बावजूद जो खुद को स्तर 2 या स्तर 3 कार के सोते हुए वीडियो पोस्ट करते रहते हैं , हम सभी को यह मानने में गुमराह होने से बचने की आवश्यकता है कि चालक अर्ध-स्वायत्त कार चलाते समय ड्राइविंग कार्य से अपना ध्यान हटा सकता है।

आप वाहन के ड्राइविंग क्रियाओं के लिए जिम्मेदार पक्ष हैं, भले ही स्वचालन को स्तर 2 या स्तर 3 में कितना उछाला जाए।

सेल्फ-ड्राइविंग कार और एआई प्रतिकूल पूर्वाग्रहों के साथ

लेवल 4 और लेवल 5 के लिए सच सेल्फ-ड्राइविंग वाहन, ड्राइविंग कार्य में शामिल मानव चालक नहीं होंगे।

सभी रहने वाले यात्री होंगे।

एआई ड्राइविंग कर रहा है।

तुरंत चर्चा करने का एक पहलू इस तथ्य पर जोर देता है कि आज के एआई ड्राइविंग सिस्टम में शामिल एआई संवेदनशील नहीं है। दूसरे शब्दों में, AI पूरी तरह से कंप्यूटर-आधारित प्रोग्रामिंग और एल्गोरिदम का एक सामूहिक है, और सबसे अधिक आश्वस्त रूप से उसी तरीके से तर्क करने में सक्षम नहीं है जो मनुष्य कर सकते हैं।

एआई के संवेदनशील नहीं होने के बारे में यह अतिरिक्त जोर क्यों दिया जा रहा है?

क्योंकि मैं यह रेखांकित करना चाहता हूं कि जब एआई ड्राइविंग सिस्टम की भूमिका पर चर्चा हो रही है, तो मैं एआई को मानवीय गुणों का वर्णन नहीं कर रहा हूं। कृपया ध्यान रखें कि इन दिनों एंथ्रोपोमोर्फिफाई एआई के लिए चल रही और खतरनाक प्रवृत्ति है। संक्षेप में, लोग आज के एआई के लिए मानव जैसी भावना प्रदान कर रहे हैं, इसके बावजूद कि इस तरह का एआई अभी तक मौजूद नहीं है।

उस स्पष्टीकरण के साथ, आप कल्पना कर सकते हैं कि एआई ड्राइविंग सिस्टम ड्राइविंग के पहलुओं के बारे में मूल रूप से किसी तरह "जान" नहीं पाएगा। ड्राइविंग और इसके लिए जरूरी सभी चीजों को सेल्फ-ड्राइविंग कार के हार्डवेयर और सॉफ्टवेयर के हिस्से के रूप में प्रोग्राम करना होगा।

आइए इस विषय पर खेलने के लिए आने वाले पहलुओं के बारे में जानें।

सबसे पहले, यह महसूस करना महत्वपूर्ण है कि सभी AI सेल्फ-ड्राइविंग कारें समान नहीं होती हैं। प्रत्येक ऑटोमेकर और सेल्फ-ड्राइविंग टेक फर्म सेल्फ-ड्राइविंग कारों को तैयार करने के लिए अपना दृष्टिकोण अपना रही है। जैसे, एआई ड्राइविंग सिस्टम क्या करेगा या नहीं, इस बारे में व्यापक बयान देना मुश्किल है।

इसके अलावा, जब भी यह कहा जाता है कि एआई ड्राइविंग सिस्टम कुछ खास काम नहीं करता है, तो बाद में, यह डेवलपर्स द्वारा आगे निकल सकता है जो वास्तव में कंप्यूटर को उसी काम करने के लिए प्रोग्राम करता है। कदम दर कदम, एआई ड्राइविंग सिस्टम में धीरे-धीरे सुधार और विस्तार किया जा रहा है। एक मौजूदा सीमा आज भविष्य के पुनरावृत्ति या सिस्टम के संस्करण में मौजूद नहीं हो सकती है।

मुझे विश्वास है कि जो मैं संबंधित करने जा रहा हूं उसे रेखांकित करने के लिए पर्याप्त चेतावनियां प्रदान करता है।

अब हम सेल्फ-ड्राइविंग कारों और एआई और अवांछित पूर्वाग्रहों की खोज में शामिल एथिकल एआई संभावनाओं में एक गहरा गोता लगाने के लिए तैयार हैं।

आइए एक सरल सरल उदाहरण का उपयोग करें। आपके आस-पड़ोस की सड़कों पर एआई-आधारित सेल्फ-ड्राइविंग कार चल रही है और लगता है कि सुरक्षित रूप से चला रही है। सबसे पहले, आपने हर बार विशेष ध्यान दिया था कि आप सेल्फ-ड्राइविंग कार की एक झलक पाने में कामयाब रहे। स्वायत्त वाहन इलेक्ट्रॉनिक सेंसर के रैक के साथ खड़ा था जिसमें वीडियो कैमरा, रडार इकाइयां, एलआईडीएआर डिवाइस और इसी तरह शामिल थे। आपके समुदाय के चारों ओर सेल्फ-ड्राइविंग कार मंडराने के कई हफ्तों के बाद, अब आप शायद ही इसे नोटिस करते हैं। जहां तक ​​आपका संबंध है, यह पहले से ही व्यस्त सार्वजनिक सड़कों पर बस एक और कार है।

ऐसा न हो कि आपको लगता है कि सेल्फ-ड्राइविंग कारों को देखने से परिचित होना असंभव या असंभव है, मैंने अक्सर इस बारे में लिखा है कि कैसे सेल्फ-ड्राइविंग कार ट्रायल के दायरे में आने वाले स्थान धीरे-धीरे स्प्रूस-अप वाहनों को देखने के आदी हो गए हैं, मेरा विश्लेषण देखें इस लिंक यहाँ. स्थानीय लोगों में से कई अंततः माउथ-गैपिंग रैप्ट गॉकिंग से स्थानांतरित हो गए और अब उन भटकती हुई सेल्फ-ड्राइविंग कारों को देखने के लिए ऊब की एक विस्तृत जम्हाई का उत्सर्जन कर रहे हैं।

संभवत: अभी मुख्य कारण यह है कि वे स्वायत्त वाहनों को नोटिस कर सकते हैं क्योंकि जलन और उत्तेजना कारक है। बाय-द-बुक एआई ड्राइविंग सिस्टम सुनिश्चित करते हैं कि कारें सभी गति सीमाओं और सड़क के नियमों का पालन कर रही हैं। अपनी पारंपरिक मानव-चालित कारों में व्यस्त मानव चालकों के लिए, आप कई बार चिड़चिड़े हो जाते हैं जब कड़ाई से कानून का पालन करने वाली एआई-आधारित सेल्फ-ड्राइविंग कारों के पीछे फंस जाते हैं।

यह कुछ ऐसा है जिसे हम सभी को सही या गलत तरीके से अभ्यस्त करने की आवश्यकता हो सकती है।

हमारी कहानी पर वापस जाएँ।

पता चला कि अन्यथा हानिरहित और आम तौर पर स्वागत योग्य एआई-आधारित सेल्फ-ड्राइविंग कारों के बारे में दो अनुचित चिंताएँ उत्पन्न होने लगती हैं, विशेष रूप से:

एक। जहां एआई सवारी लेने के लिए सेल्फ-ड्राइविंग कारों में घूम रहा है, समुदाय में बड़े पैमाने पर चिंता का विषय बन गया है

बी। एआई पैदल चलने वालों के साथ कैसा व्यवहार कर रहा है, जिनके पास रास्ता नहीं है, यह भी एक बढ़ता हुआ मुद्दा है

सबसे पहले, AI पूरे शहर में सेल्फ-ड्राइविंग कारों को घुमा रहा था। जो कोई भी सेल्फ-ड्राइविंग कार में सवारी का अनुरोध करना चाहता था, उसके पास अनिवार्य रूप से इसकी सराहना करने का समान मौका था। धीरे-धीरे, एआई ने मुख्य रूप से सेल्फ-ड्राइविंग कारों को शहर के सिर्फ एक हिस्से में घूमना शुरू कर दिया। यह अनुभाग अधिक धन-निर्माता था और एआई प्रणाली को समुदाय में उपयोग के हिस्से के रूप में राजस्व को अधिकतम करने का प्रयास करने के लिए प्रोग्राम किया गया था।

शहर के गरीब हिस्सों में समुदाय के सदस्यों को सेल्फ-ड्राइविंग कार से सवारी मिल पाने की संभावना कम थी। ऐसा इसलिए था क्योंकि सेल्फ-ड्राइविंग कारें दूर थीं और इलाके के उच्च राजस्व वाले हिस्से में घूम रही थीं। जब शहर के दूर-दराज के हिस्से से कोई अनुरोध आता है, तो नजदीकी स्थान से किसी भी अनुरोध को, जो शहर के "सम्मानित" हिस्से में होने की संभावना होती है, उच्च प्राथमिकता मिलेगी। आख़िरकार, शहर के समृद्ध हिस्से के अलावा किसी अन्य स्थान पर सेल्फ-ड्राइविंग कार प्राप्त करना लगभग असंभव था, उन लोगों के लिए यह बेहद निराशाजनक था जो अब संसाधन-विहीन क्षेत्रों में रहते थे।

आप इस बात पर जोर दे सकते हैं कि एआई काफी हद तक प्रॉक्सी भेदभाव (जिसे अक्सर अप्रत्यक्ष भेदभाव भी कहा जाता है) पर आधारित है। एआई को उन गरीब इलाकों से बचने के लिए प्रोग्राम नहीं किया गया था। इसके बजाय, इसने एमएल/डीएल के उपयोग के माध्यम से ऐसा करना "सीखा"।

बात यह है कि, सवारी साझा करने वाले मानव चालक भी यही काम करने के लिए जाने जाते थे, हालांकि जरूरी नहीं कि यह विशेष रूप से पैसा कमाने के दृष्टिकोण के कारण हो। सवारी साझा करने वाले कुछ ऐसे मानव चालक थे जो शहर के कुछ हिस्सों में सवारियाँ उठाने के प्रति अप्रिय पूर्वाग्रह रखते थे। यह कुछ हद तक ज्ञात घटना थी और शहर ने ऐसा करने वाले मानव चालकों को पकड़ने के लिए एक निगरानी दृष्टिकोण स्थापित किया था। अरुचिकर चयन प्रथाओं को करने के कारण मानव चालक मुसीबत में पड़ सकते हैं।

यह मान लिया गया था कि एआई कभी भी उसी तरह की त्वरित रेत में नहीं गिरेगा। एआई-आधारित सेल्फ-ड्राइविंग कारें कहां जा रही थीं, इस पर नज़र रखने के लिए कोई विशेष निगरानी स्थापित नहीं की गई थी। समुदाय के सदस्यों द्वारा शिकायत करने के बाद ही शहर के नेताओं को एहसास हुआ कि क्या हो रहा था। इस प्रकार के शहरव्यापी मुद्दों पर अधिक जानकारी के लिए जो स्वायत्त वाहन और स्व-ड्राइविंग कारें प्रस्तुत करने जा रही हैं, मेरी कवरेज देखें इस लिंक यहाँ और जो हार्वर्ड के नेतृत्व वाले एक अध्ययन का वर्णन करता है जिसे मैंने इस विषय पर सह-लेखक बनाया था।

एआई-आधारित सेल्फ-ड्राइविंग कारों के घूमने के पहलुओं का यह उदाहरण पहले के संकेत को दर्शाता है कि ऐसी स्थितियाँ हो सकती हैं जो मनुष्यों को अप्रिय पूर्वाग्रहों से भर देती हैं, जिसके लिए नियंत्रण स्थापित किए जाते हैं, और उन मानव चालकों की जगह लेने वाले एआई को छोड़ दिया जाता है- मुक्त। दुर्भाग्य से, एआई धीरे-धीरे समान पूर्वाग्रहों में फंस सकता है और पर्याप्त सुरक्षा व्यवस्था के बिना ऐसा कर सकता है।

दूसरे उदाहरण में एआई यह निर्धारित करना शामिल है कि क्या उन पैदल यात्रियों के इंतजार के लिए रुकना चाहिए जिनके पास सड़क पार करने का अधिकार नहीं है।

आप निस्संदेह गाड़ी चला रहे हैं और पैदल चलने वालों का सामना कर रहे हैं जो सड़क पार करने की प्रतीक्षा कर रहे थे और फिर भी उनके पास ऐसा करने का अधिकार नहीं था। इसका मतलब यह था कि आपके पास विवेक था कि क्या रुकना है और उन्हें पार करने देना है। आप उन्हें पार किए बिना आगे बढ़ सकते हैं और फिर भी ऐसा करने के कानूनी ड्राइविंग नियमों के भीतर पूरी तरह से हो सकते हैं।

मानव चालक ऐसे पैदल चलने वालों के लिए रुकने या न रुकने का निर्णय कैसे लेते हैं, इसके अध्ययन ने सुझाव दिया है कि कभी-कभी मानव चालक अप्रिय पूर्वाग्रहों के आधार पर चुनाव करते हैं। एक मानव चालक पैदल चलने वाले पर नज़र रख सकता है और रुकने का विकल्प नहीं चुन सकता है, भले ही वे रुक गए होते, यदि पैदल यात्री की उपस्थिति अलग होती, जैसे कि जाति या लिंग के आधार पर। मैंने इसकी जांच की है यहाँ लिंक.

कल्पना करें कि एआई-आधारित सेल्फ-ड्राइविंग कारों को उन पैदल चलने वालों के लिए रुकने या न रुकने के सवाल से निपटने के लिए प्रोग्राम किया गया है जिनके पास रास्ता नहीं है। यहां बताया गया है कि एआई डेवलपर्स ने इस कार्य को कैसे प्रोग्राम करने का निर्णय लिया। उन्होंने शहर के वीडियो कैमरों से डेटा एकत्र किया जो शहर के चारों ओर लगाए गए हैं। डेटा मानव चालकों को दर्शाता है जो पैदल चलने वालों के लिए रुकते हैं जिनके पास रास्ता नहीं है और मानव चालक जो नहीं रुकते हैं। यह सब एक बड़े डेटासेट में एकत्र किया गया है।

मशीन लर्निंग और डीप लर्निंग का उपयोग करके, डेटा को कम्प्यूटेशनल रूप से मॉडल किया जाता है। एआई ड्राइविंग सिस्टम इस मॉडल का उपयोग यह तय करने के लिए करता है कि कब रुकना है या नहीं रुकना है। आम तौर पर, विचार यह है कि स्थानीय रीति-रिवाज जो भी हो, एआई सेल्फ-ड्राइविंग कार को इसी तरह निर्देशित कर रहा है।

शहर के नेताओं और निवासियों को आश्चर्य हुआ, एआई स्पष्ट रूप से पैदल चलने वालों की उपस्थिति, उनकी जाति और लिंग सहित, के आधार पर रुकने या न रुकने का विकल्प चुन रहा था। सेल्फ-ड्राइविंग कार के सेंसर इंतजार कर रहे पैदल यात्री को स्कैन करेंगे, इस डेटा को एमएल/डीएल मॉडल में फीड करेंगे, और मॉडल एआई को बताएगा कि रुकना है या जारी रखना है। अफसोस की बात है कि शहर में पहले से ही इस संबंध में बहुत सारे मानव चालक पूर्वाग्रह थे और एआई अब उसी की नकल कर रहा था।

अच्छी खबर यह है कि यह एक ऐसा मुद्दा उठाता है जिसके बारे में पहले कोई नहीं जानता था। बुरी खबर यह थी कि चूंकि एआई ऐसा करते हुए पकड़ा गया था, इसलिए सबसे अधिक दोष उसी को मिला। यह उदाहरण दिखाता है कि एक एआई सिस्टम मनुष्यों के पहले से मौजूद अवांछित पूर्वाग्रहों की नकल कर सकता है।

निष्कर्ष

एआई को विकसित करने की कोशिश करने और उससे बचने के कई तरीके हैं जो या तो गेट के बाहर अवांछित पूर्वाग्रह हैं या जो समय के साथ पक्षपात करते हैं। एक दृष्टिकोण में यह सुनिश्चित करना शामिल है कि एआई डेवलपर्स ऐसा होने के बारे में जानते हैं और इस प्रकार उन्हें इस मामले को टालने के लिए एआई को प्रोग्राम करने के लिए अपने पैर की उंगलियों पर रखते हैं। एक अन्य एवेन्यू में अनैतिक व्यवहारों के लिए एआई सेल्फ-मॉनिटर होना शामिल है (मेरी चर्चा देखें यहाँ लिंक) और/या एआई का एक और टुकड़ा होना जो संभावित अनैतिक व्यवहार के लिए अन्य एआई सिस्टम की निगरानी करता है (मैंने इसे यहां कवर किया है यहाँ लिंक).

संक्षेप में, हमें यह महसूस करने की आवश्यकता है कि मनुष्यों में अवांछित पूर्वाग्रह हो सकते हैं और किसी तरह उन्हें अपनी सीमाओं को जानने की आवश्यकता है। इसी तरह, एआई में अवांछित पूर्वाग्रह हो सकते हैं, और किसी तरह हमें उनकी सीमाओं को जानने की जरूरत है।

आप में से जो एआई एथिक्स को बड़े चाव से अपना रहे हैं, उनके लिए मैं अभी एक और प्रसिद्ध लाइन के साथ अपनी बात समाप्त करना चाहता हूं, जिसे सभी को पहले से ही पता होना चाहिए। अर्थात्, कृपया एथिकल एआई के महत्व का उपयोग और साझा करना जारी रखें। और ऐसा करके, मैं चुभते हुए यह कहूंगा: "आगे बढ़ो, मेरा दिन बनाओ।"

स्रोत: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai- should-be-special-deployed-when-human-biases-are-aplenty/