एआई नैतिकता बड़े पैमाने पर वैश्विक स्तर पर एआई पूर्वाग्रहों के उभरते हुए खतरे के बारे में खतरे की घंटी बजाती है, विशेष रूप से लूमिंग के माध्यम से पूरी तरह से स्वायत्त प्रणालियों को बढ़ावा देती है

प्लेटो ने प्रसिद्ध रूप से कहा था कि एक अच्छा निर्णय ज्ञान पर आधारित होता है न कि संख्याओं पर।

यह गहरी अंतर्दृष्टि आज की आर्टिफिशियल इंटेलिजेंस (एआई) के बारे में आश्चर्यजनक रूप से दूरदर्शी लगती है।

आप देख रहे हैं, वर्तमान में तेजतर्रार सुर्खियों के बावजूद यह घोषणा की जा रही है कि एआई किसी तरह भावनाओं तक पहुंच गया है और मानव ज्ञान और तर्क का प्रतीक है, कृपया ध्यान रखें कि यह अतिरंजित एआई अतिशयोक्ति घातक पूर्वाग्रह है क्योंकि हम अभी भी आज के एल्गोरिदम निर्णय लेने (एडीएम) में संख्या-क्रंचिंग पर भरोसा कर रहे हैं ) जैसा कि एआई सिस्टम द्वारा किया गया है। यहां तक ​​कि प्रशंसित मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) में कम्प्यूटेशनल पैटर्न मिलान शामिल है, जिसका अर्थ है कि संख्याएं अभी भी एमएल/डीएल के उन्नत उपयोग के मूल में हैं।

हम नहीं जानते कि एआई द्वारा संवेदना तक पहुंचना संभव है या नहीं। हो सकता है, नहीं भी हो सकता है. कोई भी निश्चित रूप से नहीं कह सकता कि यह कैसे उत्पन्न हो सकता है। कुछ लोगों का मानना ​​​​है कि हम अपने कम्प्यूटेशनल एआई प्रयासों में क्रमिक रूप से सुधार करेंगे ताकि भावना का एक रूप अनायास घटित हो जाए। अन्य लोग सोचते हैं कि एआई एक प्रकार के कम्प्यूटेशनल सुपरनोवा में जा सकता है और अपने हिसाब से काफी हद तक संवेदना तक पहुंच सकता है (आमतौर पर इसे विलक्षणता के रूप में जाना जाता है)। एआई के भविष्य के बारे में इन सिद्धांतों पर अधिक जानकारी के लिए मेरी कवरेज देखें यहाँ लिंक.

तो, आइए हम खुद को धोखा न दें और झूठा विश्वास न करें कि समकालीन एआई इंसानों की तरह सोचने में सक्षम है। मुझे लगता है कि प्लेटो की टिप्पणी के बारे में सवाल सबसे आगे आता है कि क्या हम संवेदनशील एआई के बजाय कम्प्यूटेशनल एआई के आधार पर अच्छे निर्णय ले सकते हैं। आपको यह जानकर आश्चर्य हो सकता है कि मैं इस बात पर जोर दूंगा कि रोजमर्रा की एआई प्रणालियों द्वारा हम वास्तव में अच्छे निर्णय ले सकते हैं।

सिक्के का दूसरा पहलू यह है कि हमारे पास रोजमर्रा के एआई सिस्टम भी हो सकते हैं जो गलत निर्णय लेते हैं। सड़े-गले फैसले. ऐसे निर्णय जो अप्रिय पूर्वाग्रहों और असमानताओं से भरे हुए हैं। आप शायद जानते होंगे कि जब एआई का नवीनतम युग शुरू हुआ तो जिसे कुछ लोग अब कहते हैं, उसके प्रति भारी उत्साह था एआई फॉर गुड. दुर्भाग्य से, उस भीषण उत्साह की ऊँची एड़ी के जूते पर, हमने देखना शुरू कर दिया एआई फॉर बैड. उदाहरण के लिए, विभिन्न एआई-आधारित चेहरे की पहचान प्रणालियों को नस्लीय पूर्वाग्रहों और लिंग पूर्वाग्रहों के रूप में प्रकट किया गया है, जिनकी मैंने चर्चा की है यहाँ लिंक.

के खिलाफ वापस लड़ने के प्रयास एआई फॉर बैड सक्रिय रूप से चल रहे हैं। मुखर के अलावा कानूनी गलत कामों पर लगाम लगाने के लिए, एआई नैतिकता को सही करने के लिए एआई एथिक्स को अपनाने की दिशा में भी एक महत्वपूर्ण धक्का है। धारणा यह है कि हमें एआई के विकास और क्षेत्ररक्षण के लिए प्रमुख नैतिक एआई सिद्धांतों को अपनाना और उनका समर्थन करना चाहिए ताकि यह कम हो सके। एआई फॉर बैड और साथ ही साथ बेहतर को बढ़ावा देना और बढ़ावा देना एआई फॉर गुड.

एआई एथिक्स और एथिकल एआई पर मेरा व्यापक कवरेज यहां पाया जा सकता है इस लिंक यहाँ और इस लिंक यहाँ, कुछ लोगों का नाम बताने के लिए।

यहां इस चर्चा के लिए, मैं एआई के बारे में एक विशेष रूप से चिंताजनक पहलू सामने लाना चाहता हूं, जिस पर एआई एथिक्स क्षेत्र के लोग उचित रूप से शोक मना रहे हैं और इसके बारे में जागरूकता बढ़ाने की कोशिश कर रहे हैं। गंभीर और परेशान करने वाली बात वास्तव में इंगित करना काफी सरल है।

यह रहा: एआई में खतरनाक वैश्विक स्तर पर एआई-आधारित पूर्वाग्रहों को प्रचारित करने की वास्तविक दुनिया की क्षमता है।

और जब मैं "बड़े पैमाने पर" कहता हूं तो इसका स्पष्ट अर्थ दुनिया भर में बड़े पैमाने पर होता है। विशाल पैमाना. वह पैमाना जो तराजू से उतर जाता है।

इससे पहले कि मैं इस बात पर विचार करूं कि एआई-आधारित पूर्वाग्रहों का यह विस्तार कैसे होगा, आइए यह सुनिश्चित करें कि हम सभी को इस बात की जानकारी हो कि एआई अनुचित पूर्वाग्रहों और असमानताओं को कैसे शामिल कर सकता है। फिर से याद करें कि यह संवेदनशील किस्म का नहीं है। यह सब कम्प्यूटेशनल क्षमता का है।

आप इस बात से हैरान हो सकते हैं कि एआई उसी प्रकार के प्रतिकूल पूर्वाग्रहों और असमानताओं को कैसे बढ़ावा दे सकता है जो मनुष्य करते हैं। हम एआई को पूरी तरह से तटस्थ, निष्पक्ष, बस एक मशीन के रूप में सोचते हैं जिसमें मनुष्यों की तरह कोई भावनात्मक प्रभाव और गलत सोच नहीं है। एआई के सबसे आम तरीकों में से एक मशीन लर्निंग और डीप लर्निंग का उपयोग करते समय पूर्वाग्रहों और असमानताओं में फंसना होता है, जो आंशिक रूप से एकत्रित डेटा पर निर्भर होने के परिणामस्वरूप होता है कि मनुष्य कैसे निर्णय ले रहे हैं।

मुझे विस्तार से बताने के लिए एक क्षण का समय दें।

एमएल/डीएल कम्प्यूटेशनल पैटर्न मिलान का एक रूप है। सामान्य तरीका यह है कि आप निर्णय लेने के कार्य के बारे में डेटा इकट्ठा करते हैं। आप डेटा को ML/DL कंप्यूटर मॉडल में फीड करते हैं। वे मॉडल गणितीय पैटर्न खोजने की कोशिश करते हैं। ऐसे पैटर्न खोजने के बाद, यदि ऐसा पाया जाता है, तो AI सिस्टम नए डेटा का सामना करते समय उन पैटर्न का उपयोग करेगा। नए डेटा की प्रस्तुति पर, वर्तमान निर्णय को प्रस्तुत करने के लिए "पुराने" या ऐतिहासिक डेटा पर आधारित पैटर्न लागू होते हैं।

मुझे लगता है कि आप अनुमान लगा सकते हैं कि यह किस ओर जा रहा है। यदि मनुष्य जो पैटर्न पर निर्णय ले रहे हैं, वे अवांछित पूर्वाग्रहों को शामिल कर रहे हैं, तो संभावना यह है कि डेटा इसे सूक्ष्म लेकिन महत्वपूर्ण तरीकों से दर्शाता है। मशीन लर्निंग या डीप लर्निंग कम्प्यूटेशनल पैटर्न मिलान बस गणितीय रूप से डेटा की नकल करने की कोशिश करेगा। एआई-निर्मित मॉडलिंग के सामान्य ज्ञान या अन्य संवेदनशील पहलुओं की कोई झलक नहीं है।

इसके अलावा, एआई डेवलपर्स को एहसास नहीं हो सकता है कि क्या हो रहा है। एमएल/डीएल में रहस्यमय गणित अब छिपे हुए पूर्वाग्रहों को दूर करना मुश्किल बना सकता है। आप सही उम्मीद करेंगे और उम्मीद करेंगे कि एआई डेवलपर्स संभावित दफन पूर्वाग्रहों के लिए परीक्षण करेंगे, हालांकि यह जितना प्रतीत हो सकता है उससे कहीं अधिक कठिन है। एक ठोस मौका मौजूद है कि अपेक्षाकृत व्यापक परीक्षण के साथ भी एमएल/डीएल के पैटर्न मिलान मॉडल के भीतर अभी भी पूर्वाग्रह अंतर्निहित होंगे।

आप कुछ हद तक 'कचरे में-कचरे में-बाहर' की प्रसिद्ध या कुख्यात कहावत का उपयोग कर सकते हैं। बात यह है कि, यह पूर्वाग्रहों के समान है - जो एआई के भीतर डूबे हुए पूर्वाग्रहों के रूप में घातक रूप से शामिल हो जाते हैं। एल्गोरिदम निर्णय लेने या एआई का एडीएम स्वयंसिद्ध रूप से असमानताओं से भरा हुआ हो जाता है।

अच्छा नही।

यह हमें बड़े पैमाने पर एआई-युक्त पूर्वाग्रहों के मामले में लाता है।

सबसे पहले, आइए देखें कि मानवीय पूर्वाग्रह किस प्रकार असमानताएँ पैदा कर रहे हैं। एक कंपनी जो बंधक ऋण बनाती है, एक बंधक ऋण एजेंट को नियुक्त करने का निर्णय लेती है। एजेंट को उन उपभोक्ताओं के अनुरोधों की समीक्षा करनी होती है जो गृह ऋण प्राप्त करना चाहते हैं। किसी आवेदन का मूल्यांकन करने के बाद, एजेंट या तो ऋण देने या ऋण देने से इनकार करने का निर्णय देता है। बहुत आसान।

चर्चा के लिए, आइए कल्पना करें कि एक मानव ऋण एजेंट प्रतिदिन 8 ऋणों का विश्लेषण कर सकता है, जिसमें प्रति समीक्षा लगभग एक घंटा लगता है। पाँच-दिवसीय कार्यसप्ताह में, एजेंट लगभग 40 ऋण समीक्षाएँ करता है। वार्षिक आधार पर, एजेंट आम तौर पर लगभग 2,000 ऋण समीक्षाएँ करता है, कुछ देता है या कुछ लेता है।

कंपनी अपने ऋण समीक्षाओं की मात्रा बढ़ाना चाहती है, इसलिए कंपनी 100 अतिरिक्त ऋण एजेंटों को नियुक्त करती है। आइए मान लें कि उन सभी की उत्पादकता लगभग समान है और इसका मतलब है कि अब हम प्रति वर्ष लगभग 200,000 ऋण (प्रति एजेंट प्रति वर्ष 2,000 ऋण समीक्षा की दर से) संभाल सकते हैं। ऐसा लगता है कि हमने वास्तव में ऋण आवेदनों की प्रोसेसिंग बढ़ा दी है।

पता चला कि कंपनी एक एआई प्रणाली तैयार करती है जो अनिवार्य रूप से मानव एजेंटों के समान ही ऋण समीक्षा कर सकती है। AI क्लाउड में कंप्यूटर सर्वर पर चल रहा है। क्लाउड इंफ्रास्ट्रक्चर के माध्यम से, कंपनी किसी भी आवश्यक ऋण समीक्षा को समायोजित करने के लिए आसानी से अधिक कंप्यूटिंग शक्ति जोड़ सकती है।

मौजूदा एआई कॉन्फ़िगरेशन के साथ, वे प्रति घंटे 1,000 ऋण समीक्षाएं कर सकते हैं। ये 24×7 भी हो सकता है. एआई के लिए किसी छुट्टी के समय की आवश्यकता नहीं है। कोई लंच ब्रेक नहीं. एआई चौबीसों घंटे काम करता है और अधिक काम होने पर कोई शिकायत नहीं करता। हम कहेंगे कि उस अनुमानित गति से, AI प्रति वर्ष लगभग 9 मिलियन ऋण आवेदनों को संसाधित कर सकता है।

ध्यान दें कि हमारे पास 100 मानव एजेंट थे जो प्रति वर्ष 200,000 ऋण दे सकते थे और एआई प्रणाली के माध्यम से प्रति वर्ष 9 मिलियन समीक्षाओं की बहुत अधिक संख्या तक पहुंच गए। हमने अपने ऋण अनुरोध प्रसंस्करण को नाटकीय रूप से बढ़ा दिया है। इसके बारे में कोई संदेह नहीं है।

उस किकर के लिए तैयार हो जाइए जो शायद आपको अपनी कुर्सी से गिरा देगा।

मान लें कि हमारे कुछ मानव एजेंट अवांछित पूर्वाग्रहों के आधार पर अपने ऋण संबंधी निर्णय ले रहे हैं। शायद कुछ लोग ऋण निर्णय में नस्लीय कारकों को महत्वपूर्ण भूमिका दे रहे हैं। हो सकता है कुछ लोग लिंग का प्रयोग कर रहे हों. अन्य लोग उम्र का उपयोग कर रहे हैं. और इसी तरह।

200,000 वार्षिक ऋण समीक्षाओं में से कितनी प्रतिकूल पूर्वाग्रहों और असमानताओं की ग़लत नज़र के तहत की जा रही हैं? शायद 10% जो ऋण अनुरोधों का लगभग 20,000 है। इससे भी बुरी बात यह है कि मान लीजिए कि यह ऋण अनुरोधों का 50% है, ऐसी स्थिति में गलत तरीके से निर्णय लिए गए ऋण निर्णयों के 100,000 वार्षिक उदाहरण काफी परेशान करने वाले हैं।

यह बुरी बात है। लेकिन हमें अभी इससे भी अधिक भयावह संभावना पर विचार करना बाकी है।

मान लीजिए कि एआई में एक छिपा हुआ पूर्वाग्रह है जिसमें नस्ल, लिंग, उम्र और इसी तरह के कारक शामिल हैं। यदि वार्षिक ऋण विश्लेषण का 10% इस अस्वाभाविकता के अधीन है, तो हमारे पास 900,000 ऋण अनुरोध हैं जिन्हें अनुचित तरीके से संभाला जा रहा है। यह उससे कहीं अधिक है जो मानव एजेंट संभवतः कर सकते हैं, मुख्य रूप से केवल वॉल्यूम पहलुओं के कारण। यदि वे 100 एजेंट पूरी तरह से एक असमान समीक्षा कर रहे थे तो वे अधिकतम 200,000 वार्षिक ऋण समीक्षाओं पर ऐसा कर सकते थे। एआई 9,000,000 वार्षिक समीक्षाओं के बड़े पैमाने पर भी ऐसा ही कर सकता है।

ओह!

यह वास्तव में जबरदस्त पैमाने पर एआई-युक्त पूर्वाग्रह है।

जब अवांछित पूर्वाग्रह एआई प्रणाली के भीतर समाहित हो जाते हैं, तो वही स्केलिंग जो लाभप्रद लगती थी, अब उसके सिर पर आ जाती है और एक राक्षसी रूप से भ्रामक (और परेशान करने वाला) स्केलिंग परिणाम बन जाती है। एक ओर, एआई गृह ऋण का अनुरोध करने वाले अधिक लोगों को संभालने के लिए लाभकारी रूप से आगे बढ़ सकता है। सतह पर, यह बहुत जबरदस्त लगता है एआई फॉर गुड. हमें संभवतः मनुष्यों को आवश्यक ऋण मिलने की संभावना बढ़ाने के लिए अपनी पीठ थपथपानी चाहिए। इस बीच, यदि एआई में पक्षपात अंतर्निहित है, तो स्केलिंग का परिणाम बेहद खराब होगा और हम खुद को अफसोसजनक रूप से इसमें फंसा हुआ पाएंगे। एआई फॉर बैड, वास्तव में बड़े पैमाने पर।

कहावत दोधारी तलवार.

एआई उन लोगों के लिए निर्णय लेने की पहुंच को मौलिक रूप से बढ़ा सकता है जो वांछित सेवाओं और उत्पादों की तलाश कर रहे हैं। अब कोई मानव-बाधित श्रम बाधा नहीं। असाधारण! तलवार का दूसरा पहलू यह है कि यदि एआई में छिपी हुई असमानताएं जैसी बुराइयां हैं, तो वही बड़े पैमाने पर स्केलिंग उस अप्रिय व्यवहार को अकल्पनीय पैमाने पर प्रचारित करेगी। निंदनीय, ग़लत, शर्मनाक, और हम समाज को ऐसी बदसूरत खाई में गिरने की अनुमति नहीं दे सकते।

जो कोई भी इस बात से हैरान है कि हमें एआई एथिक्स के महत्व पर ध्यान देने की आवश्यकता क्यों है, उसे अब यह एहसास होना चाहिए कि एआई स्केलिंग घटना एथिकल एआई को आगे बढ़ाने का एक महत्वपूर्ण कारण है। आइए संक्षेप में कुछ प्रमुख नैतिक एआई सिद्धांतों पर विचार करें ताकि यह स्पष्ट किया जा सके कि क्राफ्टिंग, क्षेत्ररक्षण या एआई का उपयोग करने वाले किसी भी व्यक्ति के लिए क्या महत्वपूर्ण फोकस होना चाहिए।

उदाहरण के लिए, जैसा कि वेटिकन ने में कहा है रोम कॉल फॉर एआई एथिक्स और जैसा कि मैंने गहराई से कवर किया है यहाँ लिंक, ये उनके पहचाने गए छह प्राथमिक AI नैतिकता सिद्धांत हैं:

  • पारदर्शिता: सिद्धांत रूप में, AI सिस्टम को समझाने योग्य होना चाहिए
  • समावेशन: सभी मनुष्यों की आवश्यकताओं को ध्यान में रखा जाना चाहिए ताकि हर कोई लाभान्वित हो सके, और सभी व्यक्तियों को स्वयं को व्यक्त करने और विकसित करने के लिए सर्वोत्तम संभव परिस्थितियों की पेशकश की जा सके।
  • ज़िम्मेदारी: जो लोग एआई के उपयोग को डिजाइन और तैनात करते हैं, उन्हें जिम्मेदारी और पारदर्शिता के साथ आगे बढ़ना चाहिए
  • निष्पक्षता: पूर्वाग्रह के अनुसार निर्माण या कार्य न करें, इस प्रकार निष्पक्षता और मानवीय गरिमा की रक्षा करें
  • विश्वसनीयता: AI सिस्टम मज़बूती से काम करने में सक्षम होना चाहिए
  • सुरक्षा और गोपनीयता: AI सिस्टम को सुरक्षित रूप से काम करना चाहिए और उपयोगकर्ताओं की गोपनीयता का सम्मान करना चाहिए।

जैसा कि अमेरिकी रक्षा विभाग (DoD) ने अपने में कहा है आर्टिफिशियल इंटेलिजेंस के उपयोग के लिए नैतिक सिद्धांत और जैसा कि मैंने गहराई से कवर किया है यहाँ लिंक, ये उनके छह प्राथमिक AI नैतिकता सिद्धांत हैं:

  • उत्तरदायी: DoD कर्मी एआई क्षमताओं के विकास, परिनियोजन और उपयोग के लिए जिम्मेदार रहते हुए उचित स्तर के निर्णय और देखभाल का प्रयोग करेंगे।
  • न्यायसंगत: विभाग एआई क्षमताओं में अनपेक्षित पूर्वाग्रह को कम करने के लिए जानबूझकर कदम उठाएगा।
  • पता लगाने योग्य: विभाग की एआई क्षमताओं को इस तरह विकसित और तैनात किया जाएगा कि संबंधित कर्मियों को पारदर्शी और श्रवण योग्य पद्धतियों, डेटा स्रोतों और डिजाइन प्रक्रिया और दस्तावेज़ीकरण सहित एआई क्षमताओं पर लागू प्रौद्योगिकी, विकास प्रक्रियाओं और परिचालन विधियों की उचित समझ हो।
  • विश्वसनीय: विभाग की एआई क्षमताओं में स्पष्ट, अच्छी तरह से परिभाषित उपयोग होंगे, और ऐसी क्षमताओं की सुरक्षा, सुरक्षा और प्रभावशीलता उनके पूरे जीवन चक्र में परिभाषित उपयोगों के भीतर परीक्षण और आश्वासन के अधीन होगी।
  • शासन योग्य: विभाग अपने इच्छित कार्यों को पूरा करने के लिए एआई क्षमताओं को डिजाइन और इंजीनियर करेगा, जबकि अनपेक्षित परिणामों का पता लगाने और उनसे बचने की क्षमता रखता है, और अनपेक्षित व्यवहार प्रदर्शित करने वाले तैनात सिस्टम को निष्क्रिय या निष्क्रिय करने की क्षमता रखता है।

मैंने एआई नैतिकता सिद्धांतों के विभिन्न सामूहिक विश्लेषणों पर भी चर्चा की है, जिसमें शोधकर्ताओं द्वारा तैयार किए गए एक सेट को शामिल किया गया है, जिसने "एआई एथिक्स दिशानिर्देशों का वैश्विक परिदृश्य" नामक एक पेपर में कई राष्ट्रीय और अंतर्राष्ट्रीय एआई नैतिकता सिद्धांतों के सार की जांच और संघनित किया है। में प्रकृति), और यह कि मेरा कवरेज यहां पर पड़ताल करता है यहाँ लिंक, जिसने इस कीस्टोन सूची का नेतृत्व किया:

  • ट्रांसपेरेंसी
  • न्याय और निष्पक्षता
  • गैर-नुकसान
  • उत्तरदायित्व
  • निजता
  • उपकार
  • स्वतंत्रता और स्वायत्तता
  • ट्रस्ट
  • स्थिरता
  • गौरव
  • एकजुटता

जैसा कि आप सीधे तौर पर अनुमान लगा सकते हैं, इन सिद्धांतों में अंतर्निहित विशिष्टताओं को स्पष्ट करने का प्रयास करना बेहद कठिन हो सकता है। इससे भी अधिक, एआई सिस्टम तैयार करते समय उन व्यापक सिद्धांतों को पूरी तरह से मूर्त और विस्तृत बनाने का प्रयास भी एक कठिन काम है। एआई नैतिकता के सिद्धांत क्या हैं और उन्हें आम तौर पर कैसे देखा जाना चाहिए, इसके बारे में कुल मिलाकर कुछ हाथ मिलाना आसान है, जबकि एआई कोडिंग सड़क से मिलने वाला वास्तविक रबर होने पर यह बहुत अधिक जटिल स्थिति है।

एआई नैतिकता सिद्धांतों का उपयोग एआई डेवलपर्स द्वारा किया जाना चाहिए, साथ ही उन लोगों द्वारा भी जो एआई विकास प्रयासों का प्रबंधन करते हैं, और यहां तक ​​कि उन लोगों द्वारा भी जो अंततः एआई सिस्टम पर फील्डिंग और रखरखाव करते हैं। विकास और उपयोग के संपूर्ण एआई जीवन-चक्र में सभी हितधारकों को नैतिक एआई के स्थापित मानदंडों का पालन करने के दायरे में माना जाता है। यह एक महत्वपूर्ण आकर्षण है क्योंकि सामान्य धारणा यह है कि "केवल कोडर्स" या जो एआई को प्रोग्राम करते हैं वे एआई एथिक्स धारणाओं का पालन करने के अधीन हैं। कृपया ध्यान रखें कि एआई को विकसित करने और फील्डिंग करने के लिए एक गांव की आवश्यकता होती है। जिसके लिए पूरे गांव को एआई एथिक्स के बारे में जागरूक रहना होगा।

एआई-स्टीप्ड बायसेज़ स्केलिंग कैसे काम करती है

अब जब मैं समझ गया हूं कि एआई में पूर्वाग्रह हो सकते हैं, तो हम उन कुछ कारणों की जांच करने के लिए तैयार हैं कि एआई स्केलिंग इतनी दखलंदाजी क्यों है।

दस अंतर्निहित कारणों की इस प्रमुख सूची पर विचार करें:

  1. आसानी से दोहराया गया
  2. पैमाने की न्यूनतम लागत
  3. घृणित रूप से सुसंगत
  4. आत्मचिंतन का अभाव
  5. अंध आज्ञाकारिता
  6. अपना हाथ नहीं हिलाता
  7. प्राप्तकर्ता संदेह रहित
  8. उकसाने की प्रवृत्ति नहीं है
  9. निष्पक्षता की झूठी आभा
  10. खंडन करना कठिन है

मैं उनमें से प्रत्येक महत्वपूर्ण बिंदु का संक्षेप में पता लगाऊंगा।

जब आप मानव श्रम को बढ़ाने का प्रयास करते हैं, तो संभावना यह है कि ऐसा करना अत्यधिक जटिल होगा। आपको लोगों को ढूंढना और काम पर रखना होगा। आपको उन्हें काम करने के लिए प्रशिक्षित करना होगा। आपको उन्हें भुगतान करना होगा और मानवीय इच्छाओं और जरूरतों को ध्यान में रखना होगा। इसकी तुलना AI प्रणाली से करें। आप इसे विकसित करें और उपयोग में लाएं। एआई के कुछ चालू रखरखाव के अलावा, आप आराम से बैठ सकते हैं और इसे अंतहीन रूप से चलने दे सकते हैं।

इसका मतलब है कि AI को आसानी से दोहराया जा सकता है। आप अधिक कंप्यूटिंग शक्ति जोड़ सकते हैं क्योंकि कार्य और मात्रा की आवश्यकता हो सकती है (आप नौकरी पर नहीं रख रहे हैं या नौकरी से नहीं निकाल रहे हैं)। वैश्विक उपयोग एक बटन दबाकर किया जाता है और इंटरनेट की विश्वव्यापी उपलब्धता से प्राप्त किया जाता है। मानव श्रम के साथ ऐसा करने की तुलना में स्केलिंग न्यूनतम लागत है।

मानव श्रम अत्यंत असंगत है। जब आपके पास बड़ी टीमें होती हैं, तो आपके पास चॉकलेट का एक वास्तविक बॉक्स होता है जिसमें आप कभी नहीं जानते कि आपके हाथ में क्या हो सकता है। एआई प्रणाली के अत्यधिक सुसंगत होने की संभावना है। यह उन्हीं गतिविधियों को बार-बार दोहराता है, हर बार मूलतः पिछली बार जैसी ही होती है।

आम तौर पर, हम एआई स्थिरता का आनंद लेंगे। यदि मनुष्य पक्षपात से ग्रस्त है, तो हमारे मानव श्रम का कुछ हिस्सा हमेशा भटकता रहेगा। एआई, यदि अपने निर्माण और कम्प्यूटेशनल प्रयासों में पूरी तरह से निष्पक्ष हो, तो कहीं अधिक सुसंगत होगा। हालाँकि समस्या यह है कि यदि एआई में छिपे हुए पूर्वाग्रह हैं, तो अब इसकी स्थिरता अत्यंत घृणित है। संभावना यह है कि पक्षपातपूर्ण व्यवहार लगातार, बार-बार किया जाता रहेगा।

आशा है कि मनुष्यों को आत्म-चिंतन का कुछ आभास होगा और शायद वे स्वयं को पक्षपातपूर्ण निर्णय लेते हुए पकड़ लेंगे। मैं यह नहीं कह रहा कि सभी ऐसा करेंगे। मैं यह भी नहीं कह रहा हूं कि जो लोग स्वयं को पकड़ लेते हैं वे आवश्यक रूप से अपनी गलतियों को सुधार लेंगे। किसी भी मामले में, कम से कम कुछ इंसान कभी-कभी खुद को सही कर लेते हैं।

एआई में किसी भी प्रकार का कम्प्यूटेशनल आत्म-प्रतिबिंब होने की संभावना नहीं है। इसका मतलब यह है कि AI बस वही करता रहता है जो वह कर रहा है। ऐसा प्रतीत होता है कि एआई द्वारा यह पता लगाने की कोई संभावना नहीं है कि यह इक्विटी के विपरीत चल रहा है। जैसा कि कहा जा रहा है, मैंने इससे निपटने के लिए कुछ प्रयासों का वर्णन किया है, जैसे कि एआई के भीतर एआई एथिक्स घटकों का निर्माण (देखें)। यहाँ लिंक) और एआई तैयार करना जो अनैतिक एआई गतिविधियों को पहचानने के लिए अन्य एआई पर नज़र रखता है (देखें)। यहाँ लिंक).

किसी भी प्रकार के आत्म-चिंतन के अभाव में, एआई को जो कुछ भी करने का निर्देश दिया गया था, उसके अनिवार्य रूप से अंध आज्ञाकारिता की संभावना है। मनुष्य शायद इतने आज्ञाकारी नहीं होंगे। सम्भावना यह है कि कुछ मनुष्य जो कोई कार्य कर रहे हैं वे प्रश्न करेंगे कि क्या उन्हें संभवतः असमानता क्षेत्र में ले जाया जा रहा है। वे अनैतिक आदेशों को अस्वीकार कर देंगे या शायद व्हिसलब्लोअर मार्ग अपनाएंगे (मेरी कवरेज यहां देखें)। इस लिंक यहाँ). यह अपेक्षा न करें कि रोजमर्रा के समकालीन एआई किसी तरह इसकी प्रोग्रामिंग पर सवाल उठाएगा।

अब हम उन लोगों की ओर मुड़ते हैं जो AI का उपयोग कर रहे हैं। यदि आप होम लोन की तलाश में थे और किसी इंसान से बात की थी, तो आप इस बात को लेकर सतर्क हो सकते हैं कि क्या वह इंसान आपको उचित झटका दे रहा है। एआई प्रणाली का उपयोग करते समय, अधिकांश लोग कम संदिग्ध प्रतीत होते हैं। वे अक्सर यह मान लेते हैं कि एआई निष्पक्ष है और इसलिए वे इतनी जल्दी क्रोधित नहीं होते। ऐसा प्रतीत होता है कि एआई लोगों को "यह सिर्फ एक मशीन है" के भ्रम में डाल देता है। इसके शीर्ष पर, एआई का प्रयास करना और उसका विरोध करना कठिन हो सकता है। इसके विपरीत, एक मानव एजेंट द्वारा आपके साथ कैसा व्यवहार किया गया, इसका विरोध करना बहुत आसान है और इसे अधिक सामान्यतः स्वीकार किया जाता है और इसे व्यावहारिक रूप से संभव माना जाता है।

सभी ने बताया, एआई जो पूर्वाग्रहों में डूबा हुआ है, वह पूर्वाग्रहों में डूबे इंसानों से अपमानजनक स्थिति में है, अर्थात् एआई उन पूर्वाग्रहों को बड़े पैमाने पर बड़े पैमाने पर तैनात करने में सक्षम होने के मामले में, आसानी से पकड़े जाने या उपभोक्ताओं को आकर्षित किए बिना ऐसा करने में सक्षम है। महसूस करें कि क्या परेशान करने वाला घटित हो रहा है।

इस चर्चा के इस मोड़ पर, मैं शर्त लगा सकता हूं कि आप कुछ अतिरिक्त उदाहरणों के इच्छुक हैं जो बड़े पैमाने पर एआई-ग्रस्त पूर्वाग्रहों की पहेली को प्रदर्शित कर सकते हैं।

मुझे खुशी है कि आपने पूछा।

उदाहरणों का एक विशेष और निश्चित रूप से लोकप्रिय सेट है जो मेरे दिल के करीब है। आप देखते हैं, एआई पर एक विशेषज्ञ के रूप में, जिसमें नैतिक और कानूनी प्रभाव शामिल हैं, मुझे अक्सर ऐसे यथार्थवादी उदाहरणों की पहचान करने के लिए कहा जाता है जो एआई एथिक्स दुविधाओं को प्रदर्शित करते हैं ताकि विषय की कुछ हद तक सैद्धांतिक प्रकृति को अधिक आसानी से समझा जा सके। एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन सबसे अधिक विकसित क्षेत्रों में से एक है जो इस नैतिक एआई विवाद को स्पष्ट रूप से प्रस्तुत करता है। यह विषय पर पर्याप्त चर्चा के लिए एक उपयोगी उपयोग के मामले या उदाहरण के रूप में काम करेगा।

यहाँ एक उल्लेखनीय प्रश्न है जो विचार करने योग्य है: क्या एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन बड़े पैमाने पर एआई से जुड़े पूर्वाग्रहों के बारे में कुछ भी उजागर करता है, और यदि हां, तो यह क्या प्रदर्शित करता है?

मुझे प्रश्न को अनपैक करने के लिए एक क्षण का समय दें।

सबसे पहले, ध्यान दें कि एक सच्ची सेल्फ-ड्राइविंग कार में कोई मानव चालक शामिल नहीं है। ध्यान रखें कि असली सेल्फ-ड्राइविंग कारें AI ड्राइविंग सिस्टम से चलती हैं। पहिए पर मानव चालक की आवश्यकता नहीं है, न ही मानव के लिए वाहन चलाने का प्रावधान है। स्वायत्त वाहनों (एवी) और विशेष रूप से सेल्फ-ड्राइविंग कारों के मेरे व्यापक और चल रहे कवरेज के लिए, देखें यहाँ लिंक.

मैं और स्पष्ट करना चाहता हूं कि जब मैं सच्ची सेल्फ-ड्राइविंग कारों का उल्लेख करता हूं तो इसका क्या मतलब होता है।

आत्म ड्राइविंग कारों के स्तर को समझना

स्पष्टीकरण के रूप में, सच्ची आत्म-ड्राइविंग कार वे हैं जो एआई पूरी तरह से अपने दम पर कार चलाती है और ड्राइविंग कार्य के दौरान कोई मानव सहायता नहीं है।

इन चालक रहित वाहनों को स्तर 4 और स्तर 5 माना जाता है (मेरी व्याख्या देखें) इस लिंक यहाँ), जबकि एक कार जिसमें ड्राइविंग प्रयास को सह-साझा करने के लिए मानव चालक की आवश्यकता होती है, आमतौर पर स्तर 2 या स्तर 3 पर विचार किया जाता है। ड्राइविंग कार्य को सह-साझा करने वाली कारों को अर्ध-स्वायत्त होने के रूप में वर्णित किया जाता है, और आमतौर पर इसमें कई प्रकार के होते हैं स्वचालित ऐड-ऑन जिन्हें ADAS (उन्नत ड्राइवर-सहायता प्रणाली) कहा जाता है।

लेवल 5 पर अभी तक एक सच्ची सेल्फ-ड्राइविंग कार नहीं है, जिसे हम अभी तक नहीं जानते हैं कि क्या यह प्राप्त करना संभव होगा, और न ही वहां पहुंचने में कितना समय लगेगा।

इस बीच, लेवल 4 के प्रयास धीरे-धीरे बहुत ही संकीर्ण और चयनात्मक सार्वजनिक सड़क मार्ग के परीक्षणों से गुजरते हुए कुछ कर्षण प्राप्त करने की कोशिश कर रहे हैं, हालांकि इस बात पर विवाद है कि क्या इस परीक्षण को प्रति अनुमति दी जानी चाहिए (हम सभी जीवन-या-मृत्यु गिनी सूअर एक प्रयोग में हैं हमारे राजमार्गों और मार्गों पर हो रही है, कुछ दावेदार, मेरे कवरेज को देखते हैं इस लिंक यहाँ).

चूंकि अर्ध-स्वायत्त कारों के लिए एक मानव चालक की आवश्यकता होती है, इसलिए उन प्रकार की कारों को अपनाना पारंपरिक वाहनों को चलाने की तुलना में अलग नहीं होगा, इसलिए इस विषय पर उनके बारे में कवर करने के लिए प्रति से ज्यादा कुछ नया नहीं है (हालांकि, जैसा कि आप देखेंगे एक पल में, अगले अंक आम तौर पर लागू होते हैं)।

अर्ध-स्वायत्त कारों के लिए, यह महत्वपूर्ण है कि जनता को परेशान करने वाले पहलू के बारे में पूर्वाभास करने की आवश्यकता है, जो हाल ही में उत्पन्न हुई है, अर्थात् उन मानव चालकों के बावजूद जो खुद को स्तर 2 या स्तर 3 कार के सोते हुए वीडियो पोस्ट करते रहते हैं , हम सभी को यह मानने में गुमराह होने से बचने की आवश्यकता है कि चालक अर्ध-स्वायत्त कार चलाते समय ड्राइविंग कार्य से अपना ध्यान हटा सकता है।

आप वाहन के ड्राइविंग क्रियाओं के लिए जिम्मेदार पक्ष हैं, भले ही स्वचालन को स्तर 2 या स्तर 3 में कितना उछाला जाए।

सेल्फ-ड्राइविंग कारें और एआई पूर्वाग्रह बड़े पैमाने पर

लेवल 4 और लेवल 5 के लिए सच सेल्फ-ड्राइविंग वाहन, ड्राइविंग कार्य में शामिल मानव चालक नहीं होंगे।

सभी रहने वाले यात्री होंगे।

एआई ड्राइविंग कर रहा है।

तुरंत चर्चा करने का एक पहलू इस तथ्य पर जोर देता है कि आज के एआई ड्राइविंग सिस्टम में शामिल एआई संवेदनशील नहीं है। दूसरे शब्दों में, AI पूरी तरह से कंप्यूटर-आधारित प्रोग्रामिंग और एल्गोरिदम का एक सामूहिक है, और सबसे अधिक आश्वस्त रूप से उसी तरीके से तर्क करने में सक्षम नहीं है जो मनुष्य कर सकते हैं।

एआई के संवेदनशील नहीं होने के बारे में यह अतिरिक्त जोर क्यों दिया जा रहा है?

क्योंकि मैं यह रेखांकित करना चाहता हूं कि जब एआई ड्राइविंग सिस्टम की भूमिका पर चर्चा हो रही है, तो मैं एआई को मानवीय गुणों का वर्णन नहीं कर रहा हूं। कृपया ध्यान रखें कि इन दिनों एंथ्रोपोमोर्फिफाई एआई के लिए चल रही और खतरनाक प्रवृत्ति है। संक्षेप में, लोग आज के एआई के लिए मानव जैसी भावना प्रदान कर रहे हैं, इसके बावजूद कि इस तरह का एआई अभी तक मौजूद नहीं है।

उस स्पष्टीकरण के साथ, आप कल्पना कर सकते हैं कि एआई ड्राइविंग सिस्टम ड्राइविंग के पहलुओं के बारे में मूल रूप से किसी तरह "जान" नहीं पाएगा। ड्राइविंग और इसके लिए जरूरी सभी चीजों को सेल्फ-ड्राइविंग कार के हार्डवेयर और सॉफ्टवेयर के हिस्से के रूप में प्रोग्राम करना होगा।

आइए इस विषय पर खेलने के लिए आने वाले पहलुओं के बारे में जानें।

सबसे पहले, यह महसूस करना महत्वपूर्ण है कि सभी AI सेल्फ-ड्राइविंग कारें समान नहीं होती हैं। प्रत्येक ऑटोमेकर और सेल्फ-ड्राइविंग टेक फर्म सेल्फ-ड्राइविंग कारों को तैयार करने के लिए अपना दृष्टिकोण अपना रही है। जैसे, एआई ड्राइविंग सिस्टम क्या करेगा या नहीं, इस बारे में व्यापक बयान देना मुश्किल है।

इसके अलावा, जब भी यह कहा जाता है कि एआई ड्राइविंग सिस्टम कुछ खास काम नहीं करता है, तो बाद में, यह डेवलपर्स द्वारा आगे निकल सकता है जो वास्तव में कंप्यूटर को उसी काम करने के लिए प्रोग्राम करता है। कदम दर कदम, एआई ड्राइविंग सिस्टम में धीरे-धीरे सुधार और विस्तार किया जा रहा है। एक मौजूदा सीमा आज भविष्य के पुनरावृत्ति या सिस्टम के संस्करण में मौजूद नहीं हो सकती है।

मुझे विश्वास है कि जो मैं संबंधित करने जा रहा हूं उसे रेखांकित करने के लिए पर्याप्त चेतावनियां प्रदान करता है।

हम अब सेल्फ-ड्राइविंग कारों और बड़े पैमाने पर प्रख्यापित एआई-आधारित पूर्वाग्रहों की खोज में शामिल नैतिक एआई संभावनाओं में गहराई से उतरने के लिए तैयार हैं।

आइए एक सरल सरल उदाहरण का उपयोग करें। आपके आस-पड़ोस की सड़कों पर एआई-आधारित सेल्फ-ड्राइविंग कार चल रही है और लगता है कि सुरक्षित रूप से चला रही है। सबसे पहले, आपने हर बार विशेष ध्यान दिया था कि आप सेल्फ-ड्राइविंग कार की एक झलक पाने में कामयाब रहे। स्वायत्त वाहन इलेक्ट्रॉनिक सेंसर के रैक के साथ खड़ा था जिसमें वीडियो कैमरा, रडार इकाइयां, एलआईडीएआर डिवाइस और इसी तरह शामिल थे। आपके समुदाय के चारों ओर सेल्फ-ड्राइविंग कार मंडराने के कई हफ्तों के बाद, अब आप शायद ही इसे नोटिस करते हैं। जहां तक ​​आपका संबंध है, यह पहले से ही व्यस्त सार्वजनिक सड़कों पर बस एक और कार है।

ऐसा न हो कि आपको लगता है कि सेल्फ-ड्राइविंग कारों को देखने से परिचित होना असंभव या असंभव है, मैंने अक्सर इस बारे में लिखा है कि कैसे सेल्फ-ड्राइविंग कार ट्रायल के दायरे में आने वाले स्थान धीरे-धीरे स्प्रूस-अप वाहनों को देखने के आदी हो गए हैं, मेरा विश्लेषण देखें इस लिंक यहाँ. स्थानीय लोगों में से कई अंततः माउथ-गैपिंग रैप्ट गॉकिंग से स्थानांतरित हो गए और अब उन भटकती हुई सेल्फ-ड्राइविंग कारों को देखने के लिए ऊब की एक विस्तृत जम्हाई का उत्सर्जन कर रहे हैं।

संभवत: अभी मुख्य कारण यह है कि वे स्वायत्त वाहनों को नोटिस कर सकते हैं क्योंकि जलन और उत्तेजना कारक है। बाय-द-बुक एआई ड्राइविंग सिस्टम सुनिश्चित करते हैं कि कारें सभी गति सीमाओं और सड़क के नियमों का पालन कर रही हैं। अपनी पारंपरिक मानव-चालित कारों में व्यस्त मानव चालकों के लिए, आप कई बार चिड़चिड़े हो जाते हैं जब कड़ाई से कानून का पालन करने वाली एआई-आधारित सेल्फ-ड्राइविंग कारों के पीछे फंस जाते हैं।

यह कुछ ऐसा है जिसे हम सभी को सही या गलत तरीके से अभ्यस्त करने की आवश्यकता हो सकती है।

हमारी कहानी पर वापस जाएँ।

पता चला कि अन्यथा हानिरहित और आम तौर पर स्वागत योग्य एआई-आधारित सेल्फ-ड्राइविंग कारों के बारे में दो अनुचित चिंताएँ उत्पन्न होने लगती हैं, विशेष रूप से:

एक। जहां एआई सवारी लेने के लिए सेल्फ-ड्राइविंग कारों में घूम रहा है, वह एक मुखर चिंता का विषय बन रहा है

बी। एआई उन पैदल यात्रियों के साथ कैसा व्यवहार कर रहा है जिनके पास रास्ता नहीं है, यह एक गंभीर मुद्दा बन कर सामने आ रहा है

सबसे पहले, AI पूरे शहर में सेल्फ-ड्राइविंग कारों को घुमा रहा था। जो कोई भी सेल्फ-ड्राइविंग कार में सवारी का अनुरोध करना चाहता था, उसके पास अनिवार्य रूप से इसकी सराहना करने का समान मौका था। धीरे-धीरे, एआई ने मुख्य रूप से सेल्फ-ड्राइविंग कारों को शहर के सिर्फ एक हिस्से में घूमना शुरू कर दिया। यह अनुभाग अधिक धन-निर्माता था और एआई प्रणाली को समुदाय में उपयोग के हिस्से के रूप में राजस्व को अधिकतम करने का प्रयास करने के लिए प्रोग्राम किया गया था।

शहर के गरीब हिस्सों में समुदाय के सदस्यों को सेल्फ-ड्राइविंग कार से सवारी मिल पाने की संभावना कम थी। ऐसा इसलिए था क्योंकि सेल्फ-ड्राइविंग कारें दूर थीं और इलाके के उच्च राजस्व वाले हिस्से में घूम रही थीं। जब शहर के दूर-दराज के हिस्से से कोई अनुरोध आता है, तो नजदीकी स्थान से किसी भी अनुरोध को, जो शहर के "सम्मानित" हिस्से में होने की संभावना होती है, उच्च प्राथमिकता मिलेगी। आख़िरकार, शहर के समृद्ध हिस्से के अलावा किसी अन्य स्थान पर सेल्फ-ड्राइविंग कार प्राप्त करना लगभग असंभव था, उन लोगों के लिए यह बेहद निराशाजनक था जो अब संसाधन-विहीन क्षेत्रों में रहते थे।

आप इस बात पर जोर दे सकते हैं कि एआई काफी हद तक प्रॉक्सी भेदभाव (जिसे अक्सर अप्रत्यक्ष भेदभाव भी कहा जाता है) पर आधारित है। एआई को उन गरीब इलाकों से बचने के लिए प्रोग्राम नहीं किया गया था। इसके बजाय, इसने एमएल/डीएल के उपयोग के माध्यम से ऐसा करना "सीखा"।

बात यह है कि, सवारी साझा करने वाले मानव चालक भी यही काम करने के लिए जाने जाते थे, हालांकि जरूरी नहीं कि यह विशेष रूप से पैसा कमाने के दृष्टिकोण के कारण हो। सवारी साझा करने वाले कुछ ऐसे मानव चालक थे जो शहर के कुछ हिस्सों में सवारियाँ उठाने के प्रति अप्रिय पूर्वाग्रह रखते थे। यह कुछ हद तक ज्ञात घटना थी और शहर ने ऐसा करने वाले मानव चालकों को पकड़ने के लिए एक निगरानी दृष्टिकोण स्थापित किया था। अरुचिकर चयन प्रथाओं को करने के कारण मानव चालक मुसीबत में पड़ सकते हैं।

यह मान लिया गया था कि एआई कभी भी उसी तरह की त्वरित रेत में नहीं गिरेगा। एआई-आधारित सेल्फ-ड्राइविंग कारें कहां जा रही थीं, इस पर नज़र रखने के लिए कोई विशेष निगरानी स्थापित नहीं की गई थी। समुदाय के सदस्यों द्वारा शिकायत करने के बाद ही शहर के नेताओं को एहसास हुआ कि क्या हो रहा था। इस प्रकार के शहरव्यापी मुद्दों पर अधिक जानकारी के लिए जो स्वायत्त वाहन और स्व-ड्राइविंग कारें प्रस्तुत करने जा रही हैं, मेरी कवरेज देखें इस लिंक यहाँ और जो हार्वर्ड के नेतृत्व वाले एक अध्ययन का वर्णन करता है जिसे मैंने इस विषय पर सह-लेखक बनाया था।

एआई-आधारित सेल्फ-ड्राइविंग कारों के घूमने के पहलुओं का यह उदाहरण पहले के संकेत को दर्शाता है कि ऐसी स्थितियाँ हो सकती हैं जो मनुष्यों को अप्रिय पूर्वाग्रहों से भर देती हैं, जिसके लिए नियंत्रण स्थापित किए जाते हैं, और उन मानव चालकों की जगह लेने वाले एआई को छोड़ दिया जाता है- मुक्त। दुर्भाग्य से, एआई धीरे-धीरे समान पूर्वाग्रहों में फंस सकता है और पर्याप्त सुरक्षा व्यवस्था के बिना ऐसा कर सकता है।

यह पैमाने के मुद्दे पर एआई से जुड़े पूर्वाग्रहों को भी दर्शाता है।

मानव चालकों के मामले में, हमारे यहां या वहां कुछ ऐसे लोग रहे होंगे जो किसी न किसी रूप में असमानता का प्रयोग कर रहे थे। एआई ड्राइविंग सिस्टम के लिए, यह आमतौर पर सेल्फ-ड्राइविंग कारों के पूरे बेड़े के लिए एक ऐसा एकीकृत एआई है। इस प्रकार, हमने शहर में पचास सेल्फ-ड्राइविंग कारों (सभी एक ही एआई कोड द्वारा संचालित) के साथ शुरुआत की होगी, और धीरे-धीरे बढ़कर मान लीजिए कि 500 ​​सेल्फ-ड्राइविंग कारें (सभी एक ही एआई कोड द्वारा चलाई जा रही हैं)। चूंकि वे सभी पांच सौ सेल्फ-ड्राइविंग कारें एक ही एआई द्वारा चलाई जा रही हैं, इसलिए वे सभी एआई के भीतर अंतर्निहित समान व्युत्पन्न पूर्वाग्रहों और असमानताओं के अधीन हैं।

उस संबंध में स्केलिंग से हमें नुकसान होता है।

दूसरे उदाहरण में एआई यह निर्धारित करना शामिल है कि क्या उन पैदल यात्रियों के इंतजार के लिए रुकना चाहिए जिनके पास सड़क पार करने का अधिकार नहीं है।

आप निस्संदेह गाड़ी चला रहे हैं और पैदल चलने वालों का सामना कर रहे हैं जो सड़क पार करने की प्रतीक्षा कर रहे थे और फिर भी उनके पास ऐसा करने का अधिकार नहीं था। इसका मतलब यह था कि आपके पास विवेक था कि क्या रुकना है और उन्हें पार करने देना है। आप उन्हें पार किए बिना आगे बढ़ सकते हैं और फिर भी ऐसा करने के कानूनी ड्राइविंग नियमों के भीतर पूरी तरह से हो सकते हैं।

मानव चालक ऐसे पैदल चलने वालों के लिए रुकने या न रुकने का निर्णय कैसे लेते हैं, इसके अध्ययन ने सुझाव दिया है कि कभी-कभी मानव चालक अप्रिय पूर्वाग्रहों के आधार पर चुनाव करते हैं। एक मानव चालक पैदल चलने वाले पर नज़र रख सकता है और रुकने का विकल्प नहीं चुन सकता है, भले ही वे रुक गए होते, यदि पैदल यात्री की उपस्थिति अलग होती, जैसे कि जाति या लिंग के आधार पर। मैंने इसकी जांच की है यहाँ लिंक.

कल्पना करें कि एआई-आधारित सेल्फ-ड्राइविंग कारों को उन पैदल चलने वालों के लिए रुकने या न रुकने के सवाल से निपटने के लिए प्रोग्राम किया गया है जिनके पास रास्ता नहीं है। यहां बताया गया है कि एआई डेवलपर्स ने इस कार्य को कैसे प्रोग्राम करने का निर्णय लिया। उन्होंने शहर के वीडियो कैमरों से डेटा एकत्र किया जो शहर के चारों ओर लगाए गए हैं। डेटा मानव चालकों को दर्शाता है जो पैदल चलने वालों के लिए रुकते हैं जिनके पास रास्ता नहीं है और मानव चालक जो नहीं रुकते हैं। यह सब एक बड़े डेटासेट में एकत्र किया गया है।

मशीन लर्निंग और डीप लर्निंग का उपयोग करके, डेटा को कम्प्यूटेशनल रूप से मॉडल किया जाता है। एआई ड्राइविंग सिस्टम इस मॉडल का उपयोग यह तय करने के लिए करता है कि कब रुकना है या नहीं रुकना है। आम तौर पर, विचार यह है कि स्थानीय रीति-रिवाज जो भी हो, एआई सेल्फ-ड्राइविंग कार को इसी तरह निर्देशित कर रहा है।

शहर के नेताओं और निवासियों को आश्चर्य हुआ, एआई स्पष्ट रूप से पैदल चलने वालों की उपस्थिति, उनकी जाति और लिंग सहित, के आधार पर रुकने या न रुकने का विकल्प चुन रहा था। सेल्फ-ड्राइविंग कार के सेंसर इंतजार कर रहे पैदल यात्री को स्कैन करेंगे, इस डेटा को एमएल/डीएल मॉडल में फीड करेंगे, और मॉडल एआई को बताएगा कि रुकना है या जारी रखना है। अफसोस की बात है कि शहर में पहले से ही इस संबंध में बहुत सारे मानव चालक पूर्वाग्रह थे और एआई अब उसी की नकल कर रहा था।

यह उदाहरण दर्शाता है कि एक एआई प्रणाली मनुष्यों के पहले से मौजूद अप्रिय पूर्वाग्रहों की नकल मात्र कर सकती है। इसके अलावा, यह बड़े पैमाने पर ऐसा करता है। किसी भी मानव चालक को कभी-कभी चयन के इस अप्रिय रूप को करने के लिए सिखाया जा सकता है या हो सकता है कि व्यक्तिगत रूप से ऐसा करने के लिए चुना गया हो, लेकिन संभावना यह है कि अधिकांश मानव चालक संभवतः सामूहिक रूप से ऐसा नहीं कर रहे हैं।

इसके विपरीत, सेल्फ-ड्राइविंग कारों को चलाने के लिए इस्तेमाल किया जा रहा एआई ड्राइविंग सिस्टम घृणित रूप से लगातार और निश्चित रूप से व्युत्पन्न पूर्वाग्रह को पूरा करने की संभावना है।

निष्कर्ष

ऐसे एआई को तैयार करने की कोशिश करने और उससे बचने के कई तरीके हैं जिनमें अप्रिय पूर्वाग्रह हैं या जो समय के साथ पूर्वाग्रहों को दूर कर देते हैं। जितना संभव हो, विचार यह है कि समस्याओं को हाई गियर में जाने और स्केलिंग के लिए आगे बढ़ने से पहले पकड़ लिया जाए। उम्मीद है, ऐसा कहा जा सकता है कि पक्षपात दरवाजे से बाहर नहीं आएगा।

हालाँकि, मान लें कि एआई में किसी न किसी तरह से पूर्वाग्रह उत्पन्न होंगे। एक बार जब आप एआई के साथ बड़े पैमाने पर तैनात हो जाते हैं, तो आप बार-बार घोषित तकनीकी विशेषज्ञ "आग लगाओ और भूल जाओ" वाली धारणाओं में से एक नहीं कर सकते। आपको एआई जो कर रहा है उस पर पूरी लगन से नज़र रखनी होगी और किसी भी अप्रिय पूर्वाग्रह का पता लगाना होगा जिसे ठीक करने की आवश्यकता है।

जैसा कि पहले बताया गया है, एक दृष्टिकोण में यह सुनिश्चित करना शामिल है कि एआई डेवलपर्स एआई एथिक्स के बारे में जानते हैं और इस प्रकार उन्हें इन मामलों से बचने के लिए एआई प्रोग्राम करने के लिए तैयार रहने के लिए प्रेरित करते हैं। एक अन्य रास्ते में अनैतिक व्यवहारों के लिए एआई की स्व-निगरानी करना और/या एआई का एक और हिस्सा रखना शामिल है जो संभावित अनैतिक व्यवहारों के लिए अन्य एआई प्रणालियों की निगरानी करता है। मैंने अपने लेखन में कई अन्य संभावित समाधानों को शामिल किया है।

अभी के लिए अंतिम विचार. प्लेटो के एक उद्धरण के साथ इस चर्चा को शुरू करने के बाद, प्लेटो के एक और चतुर कथन के साथ चर्चा को समाप्त करना उचित हो सकता है।

प्लेटो ने कहा कि किसी अच्छी बात को दोहराने में कोई बुराई नहीं है।

एआई के साथ बड़े पैमाने पर जाने में आसानी निश्चित रूप से ऐसी उत्साहित आकांक्षा प्राप्त करने का एक व्यवहार्य साधन है जब एआई का महत्व हो एआई फॉर गुड विविधता। हम एक अच्छी बात को दोहराने का आनंद लेते हैं। जब AI है एआई फॉर बैड और अवांछित पूर्वाग्रहों और असमानताओं से भरे हुए, हम प्लेटो की टिप्पणियों पर निर्भर हो सकते हैं और कह सकते हैं कि किसी बुरी बात को दोहराने में बहुत नुकसान होता है।

आइए प्लेटो के बुद्धिमान शब्दों को ध्यान से सुनें और उसके अनुसार अपना एआई तैयार करें।

स्रोत: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- वैश्विक-स्तर-विशेष रूप से-ईंधन-के माध्यम से-प्रकट-पूर्ण-स्वायत्त-प्रणालियाँ/