एआई एथिक्स तथाकथित रेड फ्लैग स्थापित करने के बारे में संदेह स्वायत्त एआई सिस्टम में पक्षपातपूर्ण एल्गोरिदम को कॉल करने के लिए एआई कानून

आइए बात करते हैं रेड फ्लैग कानूनों के बारे में।

आप निस्संदेह जानते हैं कि रेड फ्लैग कानूनों की धारणा हाल ही में व्यापक रूप से खबरों में रही है। विषय को कवर करने वाली सुर्खियाँ बहुत हैं। इस तरह के मामलों पर जुनून और भावुक बहस एक सामाजिक चिंता के रूप में दिमाग के शीर्ष पर हैं और वर्तमान और तेजी से उभरते रेड फ्लैग गन कानूनों में शामिल हैं।

हालांकि मैं यह कहने की हिम्मत कर सकता हूं कि आप 1800 के दशक के उत्तरार्ध में मोटर चालित वाहनों और आज के रोजमर्रा के आधुनिक ऑटोमोबाइल के अग्रदूतों से संबंधित अन्य रेड फ्लैग कानूनों से परिचित नहीं हो सकते हैं। हां, यह सही है, रेड फ्लैग कानून इतिहास में वापस चले जाते हैं, हालांकि आज के समकालीन फोकस की तुलना में अन्य विषयों को कवर करते हैं। इन्हें आमतौर पर रेड फ्लैग ट्रैफिक कानून के रूप में जाना जाता है।

ये अब सदियों पुराने और पूरी तरह से निष्क्रिय कानूनों की आवश्यकता है कि किसी भी मोटर चालित गाड़ी या इंजन को भाप द्वारा संचालित किया गया था, उस समय एक वयस्क वाहन से पहले था और चेतावनी उद्देश्यों के लिए लाल झंडा था। विचार यह था कि पशुधन उन शोर-शराबे से भयभीत हो सकते हैं जो धीरे-धीरे और असमान रूप से गंदगी या मामूली पक्की सड़कों से नीचे गिरते हैं, इस प्रकार लाल झंडा लहराते हुए किसी के साथ चलने से आपदाओं से बचने की उम्मीद की जा सकती है। यदि आप सोच रहे थे, रेलमार्ग और ट्रेनों को उन्हीं कानूनों से बाहर रखा गया था क्योंकि वे वाहन थे जो रेल से अभिन्न रूप से बंधे थे और उनके कार्यों को कवर करने वाले अन्य कानून थे।

कल्पना कीजिए कि आज हमारे सार्वजनिक रोडवेज पर हर कार की आवश्यकता के रूप में लाल झंडे लहराए गए हैं।

उदाहरण के लिए, आपके पड़ोस की सड़क पर आने वाले एक सामान्य मोटर यात्री को यह सुनिश्चित करना होगा कि एक वयस्क लाल झंडा लहराता है और चलती कार के सामने परेड करता है। यह आपकी गली से गुजरने वाले प्रत्येक वाहन के लिए होना चाहिए। हो सकता है कि लोग रेड फ्लैग जॉबर बन जाते हैं जो कार चालकों को पास करने के लिए किराए पर लेते हैं, अन्यथा उनके पास कोई दोस्त या रिश्तेदार नहीं होता जो उनके सामने जाकर निर्धारित लहराते कार्रवाई कर सके।

हम आजकल राजमार्ग से संबंधित लाल झंडे को सड़क निर्माण स्थलों के साथ जोड़ते हैं। जैसे ही आप एक खोदी हुई सड़क के पास पहुँचते हैं, कार्यकर्ता आपका ध्यान खींचने के लिए एक लाल झंडा पकड़े हुए होंगे। यह आपको धीमा करने और सतर्क रहने के लिए कहता है। कोई बुलडोजर हो सकता है जो आपके रास्ते में आ जाए। एक विशाल छेद आगे हो सकता है और आपको इसके चारों ओर सावधानी से पार करने की आवश्यकता होगी।

लेकिन आइए 1800 के लाल झंडों के उपयोग पर वापस आते हैं।

मानो या न मानो, आने वाली मोटर चालित मशीन से पहले लाल झंडा-वावर एक मील आगे का कम से कम आठवां हिस्सा होना चाहिए था। यह काफी लंबी दूरी की तरह लगता है। हालांकि यह माना जाता है कि यह उन दिनों प्रचुर मात्रा में समझ में आता था। इंजन का चौंका देने वाला शोर और शायद वाहन को देखना ही जानवरों को डराने के लिए काफी हो सकता है। उस युग के कुछ रेड फ्लैग कानूनों में यह भी आवश्यक था कि रात के समय एक चमकदार लाल बत्ती को ऊपर रखा जाए ताकि एक स्पष्ट रूप से स्पष्ट लाल एहतियाती चेतावनी को एक अंधेरी दूरी से देखा जा सके।

सामान्य तौर पर, मुझे लगता है कि यह कहना उचित है कि हम एक समाज के रूप में लाल झंडे को एक तरह के संकेत या संकेत के रूप में जोड़ते हैं कि कुछ संभावित रूप से गलत है या कम से कम हमारे ध्यान की आवश्यकता है।

इस लाल झंडे की घटना पर थोड़ा ट्विस्ट के लिए तैयार हो जाइए।

एक तर्क दिया जा रहा है कि जब आर्टिफिशियल इंटेलिजेंस (एआई) की बात आती है तो हमें रेड फ्लैग प्रावधानों की आवश्यकता होती है।

यह थोड़ा चौंका देने वाला और आश्चर्यजनक कॉन्सेप्ट है जिससे कई लोगों के सिर खुजलाते हैं। आप हैरान हो सकते हैं कि तथाकथित कैसे या क्यों होना चाहिए? रेड फ्लैग एआई कानून. कृपया ध्यान दें कि मैं इसे रेड फ्लैग एआई कानूनों के रूप में लेबल कर रहा हूं ताकि मामले को रेड फ्लैग ट्रैफिक कानूनों (जैसे कि 1800 के दशक के उत्तरार्ध में) से अलग किया जा सके और उन्हें आज के अन्य अधिक प्रचलित रेड फ्लैग गन कानूनों से अलग किया जा सके।

क्या हमें वास्तव में ऐसे रेड फ्लैग एआई कानूनों की आवश्यकता है जो स्पष्ट रूप से और पूरी तरह से एआई मामलों पर उन्मुख हों?

प्रस्तावित दृष्टिकोण का समर्थन करने वाले लोग इस बात पर जोर देंगे कि हमें पूरी तरह से कानूनी प्रावधानों की आवश्यकता है जो एआई पर शिकंजा कसने में सहायता करें जिसमें अनुचित पूर्वाग्रह शामिल हैं और भेदभावपूर्ण तरीके से कार्य करते हैं। अभी, AI का निर्माण और परिनियोजन किसी भी परिस्थिति में वाइल्ड वेस्ट के समान है। खराब एआई पर लगाम लगाने के प्रयास वर्तमान में एआई एथिक्स दिशानिर्देशों के निर्माण और अपनाने पर निर्भर हैं। एआई एथिक्स और एथिकल एआई के मेरे चल रहे और व्यापक कवरेज के लिए, देखें यहाँ लिंक और यहाँ लिंक, कुछ लोगों का नाम बताने के लिए।

खराब एआई वाले कानूनों को धीरे-धीरे तैयार और अधिनियमित किया जा रहा है, मेरा कवरेज यहां देखें यहाँ लिंक. कुछ लोगों को चिंता है कि सांसद पर्याप्त तेजी से नहीं जा रहे हैं। ऐसा लगता है कि दुनिया में पक्षपाती एआई को बढ़ावा देने की अनुमति देने के बाढ़ के द्वार अभी काफी हद तक खुले हैं। हैंड-राइटिंग का कहना है कि जब तक किताबों पर नए कानून आएंगे, तब तक दुष्ट जिन्न पहले ही बोतल से बाहर हो जाएगा।

इतनी जल्दी नहीं, प्रतिवाद चलते हैं। चिंता इस बात की है कि यदि कानूनों को बहुत जल्दी लागू किया गया तो हम सुनहरी हंस को मार देंगे, जिससे एआई के प्रयास सूख जाएंगे और हमें नए एआई सिस्टम के सामाजिक रूप से बढ़ावा देने वाले लाभ नहीं मिलेंगे। एआई का उपयोग करने की इच्छा रखने वाले एआई डेवलपर्स और फर्म डर सकते हैं यदि एआई को नियंत्रित करने वाले नए कानूनों की एक बीजान्टिन सरणी अचानक संघीय, राज्य और स्थानीय स्तरों पर लागू हो जाती है, न कि अंतरराष्ट्रीय एआई-संबंधित कानूनों का उल्लेख करने के लिए जो आगे भी बढ़ रहे हैं।

इस गन्दे मामले में रेड फ्लैग एआई कानूनों का आह्वान आता है।

रेड फ्लैग एआई कानून में निहित जंगली और ऊनी विचारों के बारे में कुछ और मांस और आलू में जाने से पहले, आइए गहन आवश्यक विषयों पर कुछ अतिरिक्त बुनियादी बातों को स्थापित करें। हमें एआई एथिक्स और विशेष रूप से मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) के आगमन में संक्षेप में गोता लगाने की जरूरत है।

आप अस्पष्ट रूप से जानते होंगे कि एआई क्षेत्र में और एआई के क्षेत्र के बाहर भी इन दिनों सबसे तेज आवाजों में से एक में नैतिक एआई के अधिक से अधिक समानता के लिए चिल्लाना शामिल है। आइए देखें कि एआई एथिक्स और एथिकल एआई को संदर्भित करने का क्या अर्थ है। उसके ऊपर, हम यह पता लगाएंगे कि जब मैं मशीन लर्निंग और डीप लर्निंग की बात करता हूं तो मेरा क्या मतलब होता है।

एआई एथिक्स का एक विशेष खंड या हिस्सा जिस पर मीडिया का बहुत अधिक ध्यान गया है, उसमें एआई शामिल है जो अवांछित पूर्वाग्रहों और असमानताओं को प्रदर्शित करता है। आप शायद जानते होंगे कि जब एआई का नवीनतम युग चल रहा था, जिसे अब कुछ लोग कहते हैं, उसके लिए उत्साह का एक बड़ा विस्फोट हुआ था एआई फॉर गुड. दुर्भाग्य से, उस भीषण उत्साह की ऊँची एड़ी के जूते पर, हमने देखना शुरू कर दिया एआई फॉर बैड. उदाहरण के लिए, विभिन्न एआई-आधारित चेहरे की पहचान प्रणालियों को नस्लीय पूर्वाग्रहों और लिंग पूर्वाग्रहों के रूप में प्रकट किया गया है, जिनकी मैंने चर्चा की है यहाँ लिंक.

के खिलाफ वापस लड़ने के प्रयास एआई फॉर बैड सक्रिय रूप से चल रहे हैं। मुखर के अलावा कानूनी गलत कामों पर लगाम लगाने के लिए, एआई नैतिकता को सही करने के लिए एआई एथिक्स को अपनाने की दिशा में भी एक महत्वपूर्ण धक्का है। धारणा यह है कि हमें एआई के विकास और क्षेत्ररक्षण के लिए प्रमुख नैतिक एआई सिद्धांतों को अपनाना और उनका समर्थन करना चाहिए ताकि यह कम हो सके। एआई फॉर बैड और साथ ही साथ बेहतर को बढ़ावा देना और बढ़ावा देना एआई फॉर गुड.

संबंधित धारणा पर, मैं एआई संकट के समाधान के हिस्से के रूप में एआई का उपयोग करने की कोशिश करने का एक समर्थक हूं, उस तरह की सोच में आग से आग से लड़ रहा हूं। उदाहरण के लिए हम नैतिक एआई घटकों को एआई सिस्टम में एम्बेड कर सकते हैं जो निगरानी करेगा कि बाकी एआई कैसे काम कर रहा है और इस प्रकार संभावित रूप से किसी भी भेदभावपूर्ण प्रयासों को वास्तविक समय में पकड़ सकता है, मेरी चर्चा देखें यहाँ लिंक. हमारे पास एक अलग एआई सिस्टम भी हो सकता है जो एक प्रकार के एआई एथिक्स मॉनिटर के रूप में कार्य करता है। एआई सिस्टम एक ओवरसियर के रूप में कार्य करता है ताकि पता लगाया जा सके कि कोई अन्य एआई अनैतिक रसातल में जा रहा है (ऐसी क्षमताओं का मेरा विश्लेषण यहां देखें) यहाँ लिंक).

एक क्षण में, मैं आपके साथ AI एथिक्स में अंतर्निहित कुछ व्यापक सिद्धांत साझा करूँगा। इस प्रकार की बहुत सारी सूचियाँ इधर-उधर तैर रही हैं। आप कह सकते हैं कि सार्वभौमिक अपील और सहमति की अभी तक एक भी सूची नहीं है। यही दुर्भाग्यपूर्ण खबर है। अच्छी खबर यह है कि कम से कम एआई एथिक्स सूचियां आसानी से उपलब्ध हैं और वे काफी समान हैं। सभी ने बताया, इससे पता चलता है कि एक तरह के तर्कपूर्ण अभिसरण के द्वारा हम एआई एथिक्स में सामान्य समानता की ओर अपना रास्ता खोज रहे हैं।

सबसे पहले, आइए संक्षेप में कुछ समग्र नैतिक एआई उपदेशों को कवर करें जो यह स्पष्ट करते हैं कि एआई को क्राफ्ट करने, क्षेत्ररक्षण करने या उपयोग करने वाले किसी भी व्यक्ति के लिए एक महत्वपूर्ण विचार क्या होना चाहिए।

उदाहरण के लिए, जैसा कि वेटिकन ने में कहा है रोम कॉल फॉर एआई एथिक्स और जैसा कि मैंने गहराई से कवर किया है यहाँ लिंक, ये उनके पहचाने गए छह प्राथमिक AI नैतिकता सिद्धांत हैं:

  • पारदर्शिता: सिद्धांत रूप में, AI सिस्टम को समझाने योग्य होना चाहिए
  • समावेशन: सभी मनुष्यों की आवश्यकताओं को ध्यान में रखा जाना चाहिए ताकि हर कोई लाभान्वित हो सके, और सभी व्यक्तियों को स्वयं को व्यक्त करने और विकसित करने के लिए सर्वोत्तम संभव परिस्थितियों की पेशकश की जा सके।
  • ज़िम्मेदारी: जो लोग एआई के उपयोग को डिजाइन और तैनात करते हैं, उन्हें जिम्मेदारी और पारदर्शिता के साथ आगे बढ़ना चाहिए
  • निष्पक्षता: पूर्वाग्रह के अनुसार निर्माण या कार्य न करें, इस प्रकार निष्पक्षता और मानवीय गरिमा की रक्षा करें
  • विश्वसनीयता: AI सिस्टम मज़बूती से काम करने में सक्षम होना चाहिए
  • सुरक्षा और गोपनीयता: AI सिस्टम को सुरक्षित रूप से काम करना चाहिए और उपयोगकर्ताओं की गोपनीयता का सम्मान करना चाहिए।

जैसा कि अमेरिकी रक्षा विभाग (DoD) ने अपने में कहा है आर्टिफिशियल इंटेलिजेंस के उपयोग के लिए नैतिक सिद्धांत और जैसा कि मैंने गहराई से कवर किया है यहाँ लिंक, ये उनके छह प्राथमिक AI नैतिकता सिद्धांत हैं:

  • उत्तरदायी: DoD कर्मी एआई क्षमताओं के विकास, परिनियोजन और उपयोग के लिए जिम्मेदार रहते हुए उचित स्तर के निर्णय और देखभाल का प्रयोग करेंगे।
  • न्यायसंगत: विभाग एआई क्षमताओं में अनपेक्षित पूर्वाग्रह को कम करने के लिए जानबूझकर कदम उठाएगा।
  • पता लगाने योग्य: विभाग की एआई क्षमताओं को विकसित और तैनात किया जाएगा ताकि संबंधित कर्मियों के पास पारदर्शी और ऑडिट करने योग्य कार्यप्रणाली, डेटा स्रोत और डिजाइन प्रक्रिया और प्रलेखन सहित एआई क्षमताओं पर लागू प्रौद्योगिकी, विकास प्रक्रियाओं और परिचालन विधियों की उचित समझ हो।
  • विश्वसनीय: विभाग की एआई क्षमताओं में स्पष्ट, अच्छी तरह से परिभाषित उपयोग होंगे, और ऐसी क्षमताओं की सुरक्षा, सुरक्षा और प्रभावशीलता उनके पूरे जीवन चक्र में परिभाषित उपयोगों के भीतर परीक्षण और आश्वासन के अधीन होगी।
  • शासन योग्य: विभाग अपने इच्छित कार्यों को पूरा करने के लिए एआई क्षमताओं को डिजाइन और इंजीनियर करेगा, जबकि अनपेक्षित परिणामों का पता लगाने और उनसे बचने की क्षमता रखता है, और अनपेक्षित व्यवहार प्रदर्शित करने वाले तैनात सिस्टम को निष्क्रिय या निष्क्रिय करने की क्षमता रखता है।

मैंने एआई नैतिकता सिद्धांतों के विभिन्न सामूहिक विश्लेषणों पर भी चर्चा की है, जिसमें शोधकर्ताओं द्वारा तैयार किए गए एक सेट को शामिल किया गया है, जिसने "एआई एथिक्स दिशानिर्देशों का वैश्विक परिदृश्य" नामक एक पेपर में कई राष्ट्रीय और अंतर्राष्ट्रीय एआई नैतिकता सिद्धांतों के सार की जांच और संघनित किया है। में प्रकृति), और यह कि मेरा कवरेज यहां पर पड़ताल करता है यहाँ लिंक, जिसने इस कीस्टोन सूची का नेतृत्व किया:

  • ट्रांसपेरेंसी
  • न्याय और निष्पक्षता
  • गैर-नुकसान
  • उत्तरदायित्व
  • निजता
  • उपकार
  • स्वतंत्रता और स्वायत्तता
  • ट्रस्ट
  • स्थिरता
  • गौरव
  • एकजुटता

जैसा कि आप सीधे अनुमान लगा सकते हैं, इन सिद्धांतों के तहत विशिष्टताओं को निर्धारित करने की कोशिश करना बेहद कठिन हो सकता है। इससे भी अधिक, उन व्यापक सिद्धांतों को पूरी तरह से मूर्त और विस्तृत रूप से उपयोग करने के प्रयास में एआई सिस्टम को क्राफ्ट करते समय उपयोग करने का प्रयास भी दरार करने के लिए एक कठिन अखरोट है। एआई एथिक्स के नियम क्या हैं और उन्हें आम तौर पर कैसे देखा जाना चाहिए, इसके बारे में कुछ हाथ मिलाना आसान है, जबकि एआई कोडिंग में यह एक अधिक जटिल स्थिति है जो सड़क से मिलने वाली सत्यनिष्ठ रबर है।

एआई एथिक्स सिद्धांतों का उपयोग एआई डेवलपर्स द्वारा किया जाना चाहिए, साथ ही एआई विकास प्रयासों का प्रबंधन करने वाले, और यहां तक ​​​​कि वे भी जो अंततः एआई सिस्टम पर क्षेत्र और रखरखाव करते हैं। विकास और उपयोग के पूरे एआई जीवन चक्र में सभी हितधारकों को नैतिक एआई के स्थापित मानदंडों के पालन के दायरे में माना जाता है। यह एक महत्वपूर्ण हाइलाइट है क्योंकि सामान्य धारणा यह है कि "केवल कोडर्स" या एआई प्रोग्राम करने वाले एआई एथिक्स धारणाओं का पालन करने के अधीन हैं। जैसा कि पहले कहा गया है, एआई को विकसित करने और क्षेत्र में लाने के लिए एक गाँव की आवश्यकता होती है, और जिसके लिए पूरे गाँव को एआई एथिक्स के नियमों से वाकिफ और उसका पालन करना पड़ता है।

आइए यह भी सुनिश्चित करें कि हम आज के AI की प्रकृति के बारे में एक ही पृष्ठ पर हैं।

आज कोई ऐसा AI नहीं है जो संवेदनशील हो। हमारे पास यह नहीं है। हम नहीं जानते कि संवेदनशील एआई संभव होगा या नहीं। कोई भी उपयुक्त रूप से भविष्यवाणी नहीं कर सकता है कि क्या हम संवेदनशील एआई प्राप्त करेंगे, और न ही संवेदनशील एआई किसी तरह चमत्कारिक रूप से स्वचालित रूप से कम्प्यूटेशनल संज्ञानात्मक सुपरनोवा के रूप में उत्पन्न होगा (आमतौर पर विलक्षणता के रूप में संदर्भित, मेरा कवरेज देखें यहाँ लिंक).

जिस प्रकार के एआई पर मैं ध्यान केंद्रित कर रहा हूं वह गैर-संवेदी एआई है जो आज हमारे पास है। अगर हम बेतहाशा अटकलें लगाना चाहते हैं संवेदनशील एआई, यह चर्चा मौलिक रूप से अलग दिशा में जा सकती है। माना जाता है कि एक संवेदनशील एआई मानव गुणवत्ता का होगा। आपको यह विचार करना होगा कि संवेदनशील एआई मानव के संज्ञानात्मक समकक्ष है। इसके अलावा, चूंकि कुछ अनुमान लगाते हैं कि हमारे पास सुपर-इंटेलिजेंट एआई हो सकता है, यह कल्पना की जा सकती है कि ऐसा एआई इंसानों की तुलना में अधिक स्मार्ट हो सकता है (एक संभावना के रूप में सुपर-इंटेलिजेंट एआई की मेरी खोज के लिए, देखें यहाँ कवरेज).

आइए चीजों को और नीचे रखें और आज के कम्प्यूटेशनल गैर-संवेदी एआई पर विचार करें।

महसूस करें कि आज का AI किसी भी तरह से मानव सोच के समान "सोचने" में सक्षम नहीं है। जब आप एलेक्सा या सिरी के साथ बातचीत करते हैं, तो बातचीत की क्षमता मानवीय क्षमताओं के समान लग सकती है, लेकिन वास्तविकता यह है कि यह कम्प्यूटेशनल है और इसमें मानवीय ज्ञान का अभाव है। एआई के नवीनतम युग ने मशीन लर्निंग (एमएल) और डीप लर्निंग (डीएल) का व्यापक उपयोग किया है, जो कम्प्यूटेशनल पैटर्न मिलान का लाभ उठाते हैं। इसने एआई सिस्टम को जन्म दिया है जिसमें मानव जैसी प्रवृत्तियों का आभास होता है। इस बीच, आज कोई ऐसा AI नहीं है जिसमें सामान्य ज्ञान की समानता हो और न ही मजबूत मानवीय सोच का कोई संज्ञानात्मक आश्चर्य हो।

एमएल/डीएल कम्प्यूटेशनल पैटर्न मिलान का एक रूप है। सामान्य तरीका यह है कि आप निर्णय लेने के कार्य के बारे में डेटा इकट्ठा करते हैं। आप डेटा को ML/DL कंप्यूटर मॉडल में फीड करते हैं। वे मॉडल गणितीय पैटर्न खोजने की कोशिश करते हैं। ऐसे पैटर्न खोजने के बाद, यदि ऐसा पाया जाता है, तो AI सिस्टम नए डेटा का सामना करते समय उन पैटर्न का उपयोग करेगा। नए डेटा की प्रस्तुति पर, वर्तमान निर्णय को प्रस्तुत करने के लिए "पुराने" या ऐतिहासिक डेटा पर आधारित पैटर्न लागू होते हैं।

मुझे लगता है कि आप अनुमान लगा सकते हैं कि यह कहाँ जा रहा है। यदि मानव जो निर्णयों पर प्रतिरूप बनाते रहे हैं, वे अवांछित पूर्वाग्रहों को शामिल कर रहे हैं, तो संभावना है कि डेटा इसे सूक्ष्म लेकिन महत्वपूर्ण तरीकों से दर्शाता है। मशीन लर्निंग या डीप लर्निंग कम्प्यूटेशनल पैटर्न मिलान केवल गणितीय रूप से डेटा की नकल करने की कोशिश करेगा। एआई-क्राफ्टेड मॉडलिंग के सामान्य ज्ञान या अन्य संवेदनशील पहलुओं की कोई समानता नहीं है।

इसके अलावा, एआई डेवलपर्स को एहसास नहीं हो सकता है कि क्या हो रहा है। एमएल/डीएल में रहस्यमय गणित अब छिपे हुए पूर्वाग्रहों को दूर करना मुश्किल बना सकता है। आप सही उम्मीद करेंगे और उम्मीद करेंगे कि एआई डेवलपर्स संभावित दफन पूर्वाग्रहों के लिए परीक्षण करेंगे, हालांकि यह जितना प्रतीत हो सकता है उससे कहीं अधिक कठिन है। एक ठोस मौका मौजूद है कि अपेक्षाकृत व्यापक परीक्षण के साथ भी एमएल/डीएल के पैटर्न मिलान मॉडल के भीतर अभी भी पूर्वाग्रह अंतर्निहित होंगे।

आप कुछ हद तक प्रसिद्ध या कुख्यात कहावत का उपयोग कर सकते हैं कचरा-कचरा-बाहर। बात यह है कि, यह पूर्वाग्रहों के समान है-इसमें एआई के भीतर डूबे हुए पूर्वाग्रहों के रूप में कपटी रूप से संक्रमित हो जाते हैं। एआई का एल्गोरिथम निर्णय लेने (एडीएम) स्वयंसिद्ध रूप से असमानताओं से भरा हो जाता है।

अच्छा नही।

आइए रेड फ्लैग एआई कानूनों पर अपना ध्यान केंद्रित करें।

अंतर्निहित अवधारणा यह है कि जब भी लोग मानते हैं कि एआई सिस्टम अनुचित रूप से पक्षपाती या भेदभावपूर्ण तरीके से काम कर रहा है, तो लोग लाल झंडा उठा सकेंगे। आप स्वयं एक भौतिक झंडा नहीं उठा रहे होंगे, और इसके बजाय आप अपनी चिंताओं से अवगत कराने के लिए बस कुछ इलेक्ट्रॉनिक साधनों का उपयोग करेंगे। योजना या दृष्टिकोण का लाल झंडा हिस्सा भौतिक अवतार की तुलना में अधिक रूपक है।

मान लीजिए कि आप होम लोन के लिए आवेदन कर रहे थे। आप ऋण के लिए आवेदन करने के लिए ऑनलाइन बैंकिंग सेवा का उपयोग करने का विकल्प चुनते हैं। कुछ व्यक्तिगत डेटा दर्ज करने के बाद, आप एआई सिस्टम की प्रतीक्षा करते हैं जिसका उपयोग यह तय करने के लिए किया जा रहा है कि आप ऋण के योग्य हैं या नहीं। एआई आपको बताता है कि आपको ऋण के लिए ठुकरा दिया गया है। आपको क्यों अस्वीकार किया गया था, इस बारे में स्पष्टीकरण का अनुरोध करने पर, पाठ्य कथा आपको यह सुझाव देती है कि एआई निर्णय लेने वाले एल्गोरिदम के हिस्से के रूप में अनुचित पक्षपाती कारकों का उपयोग कर रहा था।

एआई के बारे में लाल झंडा उठाने का समय।

यह लाल झंडा वास्तव में कहाँ लहराएगा?

यह एक मिलियन डॉलर का सवाल है।

एक दृष्टिकोण यह है कि हमें एक राष्ट्रव्यापी डेटाबेस स्थापित करना चाहिए जो लोगों को अपने एआई-प्रासंगिक लाल झंडे को चिह्नित करने की अनुमति देगा। कुछ का कहना है कि इसे संघीय सरकार द्वारा विनियमित किया जाना चाहिए। संघीय एजेंसियां ​​​​लाल झंडों की जांच करने और सच्चाई के रूप में आम जनता की सहायता के लिए आने और संभावित रूप से "खराब एआई" से निपटने के लिए जिम्मेदार होंगी, जिसने लाल झंडे की रिपोर्टिंग की ऊंचाई को रोक दिया था।

एक राष्ट्रीय लाल झंडा एआई कानून प्रतीत होता है कि कांग्रेस द्वारा स्थापित किया जाएगा। कानून यह बताएगा कि एआई-प्रासंगिक लाल झंडा क्या है। कानून वर्णन करेगा कि ये एआई ग्राउटिंग लाल झंडे कैसे उठाए जाते हैं। और इसी तरह। यह भी मामला हो सकता है कि अलग-अलग राज्य अपने स्वयं के रेड फ्लैग एआई कानूनों को तैयार करने का विकल्प चुन सकते हैं। शायद वे एक राष्ट्रीय पहल के बदले ऐसा करते हैं, या वे ऐसा उन विवरणों को बढ़ाने के लिए करते हैं जो विशेष रूप से उनके विशिष्ट राज्य के लिए आकर्षक हैं।

एक संघीय या किसी भी सरकार समर्थित रेड फ्लैग एआई कार्यक्रम के आलोचकों का तर्क होगा कि यह कुछ ऐसा है जो निजी उद्योग कर सकता है और हमें बिग ब्रदर के सामने आने की आवश्यकता नहीं है। उद्योग एक ऑनलाइन भंडार स्थापित कर सकता है जिसमें लोग एआई सिस्टम के बारे में लाल झंडे दर्ज कर सकते हैं। उद्योग द्वारा एक आत्म-पुलिस कार्रवाई इन मुद्दों से पर्याप्त रूप से निपटेगी।

कथित उद्योग दृष्टिकोण के बारे में एक परेशानी यह है कि यह क्रोनिज्म की बू आती है। क्या कंपनियां निजी तौर पर चलाए जा रहे रेड फ्लैग एआई डेटाबेस का पालन करने को तैयार होंगी? कई कंपनियां संभावित रूप से अपने एआई के बारे में चिह्नित लाल झंडों को नजरअंदाज कर देंगी। प्रवेश किए गए लाल झंडों से निपटने के लिए कंपनियों को प्राप्त करने की दिशा में तेज दांत नहीं होंगे।

अरे, निजी क्षेत्र के प्रस्तावक आवाज उठाते हैं, यह राष्ट्रीय येल्प जैसी सेवा के समान होगा। उपभोक्ता लाल झंडों को देख सकते हैं और खुद तय कर सकते हैं कि क्या वे उन कंपनियों के साथ व्यापार करना चाहते हैं जिन्होंने एआई-उन्मुख लाल झंडे का ढेर लगा दिया है। एक बैंक जो अपने एआई के बारे में लाल झंडे प्राप्त कर रहा था, उसे ध्यान देना होगा और अपने एआई सिस्टम को सुधारना होगा, इसलिए तर्क जाता है, अन्यथा उपभोक्ता प्लेग जैसी फर्म से बचेंगे।

क्या यह पूरा दृष्टिकोण सरकार द्वारा या उद्योग द्वारा किया जाता है, प्रस्तावित रेड फ्लैग एआई कानूनों के सामने आने वाले कांटेदार सवालों पर हिमशैल का सिरा है।

अपने आप को एक ऐसी फर्म के जूते में रखें जो एआई विकसित या उपयोग कर रही है। यह हो सकता है कि ऐसा करने के लिए कोई व्यवहार्य आधार न होने पर भी उपभोक्ता लाल झंडे उठाएंगे। यदि लोग एआई के बारे में स्वतंत्र रूप से एक लाल झंडा पोस्ट कर सकते हैं, तो वे ऐसा करने के लिए ललचा सकते हैं, या शायद एक फर्म के खिलाफ बदला लेने के लिए, जिसने अन्यथा उपभोक्ता के प्रति कुछ भी गलत नहीं किया है।

संक्षेप में, AI के बारे में बहुत सारे झूठे-सकारात्मक लाल झंडे हो सकते हैं।

एक अन्य विचार परिणामी लाल झंडों का विशाल आकार या परिमाण है। लाखों लाल झंडे आसानी से उठाए जा सकते थे। उन सभी लाल झंडों का पालन कौन करेगा? ऐसा करने की लागत क्या होगी? लाल झंडा अनुवर्ती प्रयासों के लिए कौन भुगतान करेगा? आदि।

यदि आप कहते हैं कि एआई के बारे में लाल झंडे को पंजीकृत करने या रिपोर्ट करने वाले को शुल्क देना पड़ता है, तो आप एक संदिग्ध और कपटी क्षेत्र में प्रवेश कर चुके हैं। चिंता यह होगी कि केवल अमीर ही लाल झंडे उठाने में सक्षम होंगे। इसका तात्पर्य यह है कि गरीब लोग रेड फ्लैग गतिविधियों में समान रूप से भाग नहीं ले पाएंगे और अनिवार्य रूप से प्रतिकूल एआई के बारे में चेतावनी के लिए कोई स्थान नहीं होगा।

अभी के लिए बस एक और मोड़, अर्थात् एआई के बारे में इस तरह के लाल झंडे कानून या दिशानिर्देश पहले से चेतावनी के रूप में सेवा करने के बजाय तथ्य के बाद प्रतीत होते हैं।

रेड फ्लैग ट्रैफिक कानूनों पर लौटते हुए, लाल झंडे का उपयोग करने पर जोर दिया गया था ताकि शुरुआत में किसी आपदा को टाला जा सके। रेड फ्लैग-वेवर आने वाली कार से काफी आगे होना चाहिए था। वाहन के आगे होने से, पशुधन सतर्क हो जाएगा और जो पशुधन की रक्षा करते हैं उन्हें पता होगा कि उन्हें जल्द ही आने वाले परेशान स्रोत के कारण सावधानी बरतनी चाहिए।

यदि लोग केवल एआई के बारे में एक लाल झंडा उठाने में सक्षम हैं, जो पहले से ही उनके अधिकारों को नुकसान पहुंचा रहा है या कम कर रहा है, तो लौकिक घोड़ा पहले से ही खलिहान से बाहर है। यह सब पूरा करने के लिए प्रतीत होता है कि उम्मीद है कि साथ आने वाले अन्य लोग अब उस एआई सिस्टम से सावधान रहना जानते होंगे। इस बीच, कथित रूप से अन्याय करने वाला व्यक्ति पहले ही पीड़ित हो चुका है।

कुछ का सुझाव है कि शायद हम लोगों को एआई के बारे में लाल झंडे उठाने की अनुमति दे सकते हैं कि वे संदिग्ध पक्षपाती हो सकते हैं, भले ही उन्होंने एआई का उपयोग नहीं किया हो और एआई से सीधे प्रभावित न हों। इस प्रकार, नुकसान होने से पहले लाल झंडा लहराया जाता है।

ओह, रिटॉर्ट जाता है, आप वास्तव में एआई-कोपिंग लाल झंडे को पूरी तरह से असहनीय और अराजक मामला बनाने जा रहे हैं। यदि कोई किसी कारण से किसी AI सिस्टम के बारे में लाल झंडा उठा सकता है, तो उस AI के साथ कुछ भी न करने के बावजूद, आप लाल झंडों से भर जाएंगे। इससे भी बुरी बात यह है कि आप भूसे से गेहूँ को नहीं पहचान पाएंगे। संपूर्ण लाल झंडा दृष्टिकोण अपने स्वयं के वजन के तहत ढह जाएगा, फ्लोट्सम और रिफ्राफ को पूरे जहाज को डूबने की अनुमति देकर विचार की अच्छाई को नीचे ले जाएगा।

चक्कर आना और भ्रमित करना।

इस महत्वपूर्ण चर्चा के इस मोड़ पर, मैं शर्त लगा सकता हूँ कि आप कुछ उदाहरणात्मक उदाहरणों के इच्छुक हैं जो इस विषय को प्रदर्शित कर सकते हैं। उदाहरणों का एक विशेष और निश्चित रूप से लोकप्रिय सेट है जो मेरे दिल के करीब है। आप देखते हैं, एआई पर एक विशेषज्ञ के रूप में मेरी क्षमता में, जिसमें नैतिक और कानूनी प्रभाव शामिल हैं, मुझे अक्सर ऐसे यथार्थवादी उदाहरणों की पहचान करने के लिए कहा जाता है जो एआई एथिक्स दुविधाओं को प्रदर्शित करते हैं ताकि विषय की कुछ हद तक सैद्धांतिक प्रकृति को और अधिक आसानी से समझा जा सके। एआई-आधारित सच्ची सेल्फ-ड्राइविंग कारों का आगमन सबसे अधिक विकसित क्षेत्रों में से एक है जो इस नैतिक एआई विवाद को स्पष्ट रूप से प्रस्तुत करता है। यह विषय पर पर्याप्त चर्चा के लिए एक उपयोगी उपयोग के मामले या उदाहरण के रूप में काम करेगा।

यहाँ एक उल्लेखनीय प्रश्न है जो विचार करने योग्य है: क्या एआई-आधारित ट्रू सेल्फ-ड्राइविंग कारों का आगमन रेड फ्लैग एआई कानूनों के बारे में कुछ बताता है, और यदि हां, तो यह क्या प्रदर्शित करता है?

मुझे प्रश्न को अनपैक करने के लिए एक क्षण का समय दें।

सबसे पहले, ध्यान दें कि एक सच्ची सेल्फ-ड्राइविंग कार में कोई मानव चालक शामिल नहीं है। ध्यान रखें कि असली सेल्फ-ड्राइविंग कारें AI ड्राइविंग सिस्टम से चलती हैं। पहिए पर मानव चालक की आवश्यकता नहीं है, न ही मानव के लिए वाहन चलाने का प्रावधान है। स्वायत्त वाहनों (एवी) और विशेष रूप से सेल्फ-ड्राइविंग कारों के मेरे व्यापक और चल रहे कवरेज के लिए, देखें यहाँ लिंक.

मैं और स्पष्ट करना चाहता हूं कि जब मैं सच्ची सेल्फ-ड्राइविंग कारों का उल्लेख करता हूं तो इसका क्या मतलब होता है।

आत्म ड्राइविंग कारों के स्तर को समझना

स्पष्टीकरण के रूप में, सच्ची आत्म-ड्राइविंग कार वे हैं जहां एआई पूरी तरह से अपने दम पर कार चलाता है और ड्राइविंग कार्य के दौरान कोई मानव सहायता नहीं है।

इन चालक रहित वाहनों को स्तर 4 और स्तर 5 माना जाता है (मेरी व्याख्या देखें) इस लिंक यहाँ), जबकि एक कार जिसमें ड्राइविंग प्रयास को सह-साझा करने के लिए मानव चालक की आवश्यकता होती है, आमतौर पर स्तर 2 या स्तर 3 पर विचार किया जाता है। ड्राइविंग कार्य को सह-साझा करने वाली कारों को अर्ध-स्वायत्त होने के रूप में वर्णित किया जाता है, और आमतौर पर इसमें कई प्रकार के होते हैं स्वचालित ऐड-ऑन जिन्हें ADAS (उन्नत ड्राइवर-सहायता प्रणाली) कहा जाता है।

लेवल 5 पर अभी तक एक सच्ची सेल्फ-ड्राइविंग कार नहीं है, और हम अभी तक यह भी नहीं जानते हैं कि क्या यह हासिल करना संभव होगा, और न ही वहां पहुंचने में कितना समय लगेगा।

इस बीच, लेवल 4 के प्रयास धीरे-धीरे बहुत ही संकीर्ण और चयनात्मक सार्वजनिक सड़क मार्ग के परीक्षणों से गुजरते हुए कुछ कर्षण प्राप्त करने की कोशिश कर रहे हैं, हालांकि इस बात पर विवाद है कि क्या इस परीक्षण को प्रति अनुमति दी जानी चाहिए (हम सभी जीवन-या-मृत्यु गिनी सूअर एक प्रयोग में हैं हमारे राजमार्गों और मार्गों पर हो रही है, कुछ दावेदार, मेरे कवरेज को देखते हैं इस लिंक यहाँ).

चूंकि अर्ध-स्वायत्त कारों के लिए एक मानव चालक की आवश्यकता होती है, इसलिए उन प्रकार की कारों को अपनाना पारंपरिक वाहनों को चलाने की तुलना में अलग नहीं होगा, इसलिए इस विषय पर उनके बारे में कवर करने के लिए प्रति से ज्यादा कुछ नया नहीं है (हालांकि, जैसा कि आप देखेंगे एक पल में, अगले अंक आम तौर पर लागू होते हैं)।

अर्ध-स्वायत्त कारों के लिए, यह महत्वपूर्ण है कि जनता को परेशान करने वाले पहलू के बारे में पूर्वाभास करने की आवश्यकता है, जो हाल ही में उत्पन्न हुई है, अर्थात् उन मानव चालकों के बावजूद जो खुद को स्तर 2 या स्तर 3 कार के सोते हुए वीडियो पोस्ट करते रहते हैं , हम सभी को यह मानने में गुमराह होने से बचने की आवश्यकता है कि चालक अर्ध-स्वायत्त कार चलाते समय ड्राइविंग कार्य से अपना ध्यान हटा सकता है।

आप वाहन के ड्राइविंग क्रियाओं के लिए जिम्मेदार पक्ष हैं, भले ही स्वचालन को स्तर 2 या स्तर 3 में कितना उछाला जाए।

सेल्फ ड्राइविंग कार और रेड फ्लैग एआई कानून

लेवल 4 और लेवल 5 के लिए सच सेल्फ-ड्राइविंग वाहन, ड्राइविंग कार्य में शामिल मानव चालक नहीं होंगे।

सभी रहने वाले यात्री होंगे।

एआई ड्राइविंग कर रहा है।

तुरंत चर्चा करने का एक पहलू इस तथ्य पर जोर देता है कि आज के एआई ड्राइविंग सिस्टम में शामिल एआई संवेदनशील नहीं है। दूसरे शब्दों में, AI पूरी तरह से कंप्यूटर-आधारित प्रोग्रामिंग और एल्गोरिदम का एक सामूहिक है, और सबसे अधिक आश्वस्त रूप से उसी तरीके से तर्क करने में सक्षम नहीं है जो मनुष्य कर सकते हैं।

एआई के संवेदनशील नहीं होने के बारे में यह अतिरिक्त जोर क्यों दिया जा रहा है?

क्योंकि मैं यह रेखांकित करना चाहता हूं कि जब एआई ड्राइविंग सिस्टम की भूमिका पर चर्चा हो रही है, तो मैं एआई को मानवीय गुणों का वर्णन नहीं कर रहा हूं। कृपया ध्यान रखें कि इन दिनों एंथ्रोपोमोर्फिफाई एआई के लिए चल रही और खतरनाक प्रवृत्ति है। संक्षेप में, लोग आज के एआई के लिए मानव जैसी भावना प्रदान कर रहे हैं, इसके बावजूद कि इस तरह का एआई अभी तक मौजूद नहीं है।

उस स्पष्टीकरण के साथ, आप कल्पना कर सकते हैं कि एआई ड्राइविंग सिस्टम ड्राइविंग के पहलुओं के बारे में मूल रूप से किसी तरह "जान" नहीं पाएगा। ड्राइविंग और इसके लिए जरूरी सभी चीजों को सेल्फ-ड्राइविंग कार के हार्डवेयर और सॉफ्टवेयर के हिस्से के रूप में प्रोग्राम करना होगा।

आइए इस विषय पर खेलने के लिए आने वाले पहलुओं के बारे में जानें।

सबसे पहले, यह महसूस करना महत्वपूर्ण है कि सभी AI सेल्फ-ड्राइविंग कारें समान नहीं होती हैं। प्रत्येक ऑटोमेकर और सेल्फ-ड्राइविंग टेक फर्म सेल्फ-ड्राइविंग कारों को तैयार करने के लिए अपना दृष्टिकोण अपना रही है। जैसे, एआई ड्राइविंग सिस्टम क्या करेगा या नहीं, इस बारे में व्यापक बयान देना मुश्किल है।

इसके अलावा, जब भी यह कहा जाता है कि एआई ड्राइविंग सिस्टम कुछ खास काम नहीं करता है, तो बाद में, यह डेवलपर्स द्वारा आगे निकल सकता है जो वास्तव में कंप्यूटर को उसी काम करने के लिए प्रोग्राम करता है। कदम दर कदम, एआई ड्राइविंग सिस्टम में धीरे-धीरे सुधार और विस्तार किया जा रहा है। एक मौजूदा सीमा आज भविष्य के पुनरावृत्ति या सिस्टम के संस्करण में मौजूद नहीं हो सकती है।

मुझे उम्मीद है कि जो मैं संबंधित करने जा रहा हूं उसे रेखांकित करने के लिए पर्याप्त चेतावनी प्रदान करता है।

आइए एक ऐसे परिदृश्य की रूपरेखा तैयार करें जो रेड फ्लैग एआई कानून का लाभ उठा सकता है।

आप एआई-आधारित सेल्फ-ड्राइविंग कार में बैठते हैं और चाहते हैं कि स्वायत्त वाहन आपको आपके स्थानीय किराना स्टोर तक ले जाए। अपेक्षाकृत संक्षिप्त यात्रा के दौरान, AI एक ऐसा मार्ग अपनाता है जो आपको कुछ हद तक गलत लगता है। सबसे सीधे रास्ते पर जाने के बजाय, एआई आउट-ऑफ-द-वे सड़कों पर नेविगेट करता है जिससे ड्राइविंग का समय सामान्य से अधिक हो सकता है।

क्या चल रहा है?

यह मानते हुए कि आप सेल्फ-ड्राइविंग कार के उपयोग के लिए भुगतान कर रहे हैं, आपको संदेह हो सकता है कि AI को यात्रा के किराए या लागत को बढ़ाने के लिए एक लंबा रास्ता तय करने के लिए प्रोग्राम किया गया था। कोई भी जिसने कभी भी एक पारंपरिक मानव-चालित कैब ली है, वह उस प्रवंचना के बारे में जानता है जो मीटर पर अधिक आटा प्राप्त करने के लिए हो सकती है। बेशक, कैब या समकक्ष में सवारी करते समय अपने स्मार्टफ़ोन पर जीपीएस रखने वाले लोगों के साथ, आप आसानी से एक मानव चालक को पकड़ सकते हैं जो चुपके से अनावश्यक रूप से लंबे मार्ग ले रहा है।

पता चलता है कि आपको मार्ग की पसंद के बारे में एक और चिंता है, कुछ ऐसा जो वास्तव में आपको परेशान करता है।

मान लीजिए कि नस्लीय पहलुओं के कारण शहर के कुछ हिस्सों से बचने के लिए रूटिंग की गई थी। मानव चालकों के प्रलेखित मामले हैं जो इस प्रकार के विकल्प बनाते हुए पकड़े गए हैं, मेरी चर्चा देखें यहाँ लिंक. शायद एआई को इसके प्रतिकूल क्रमादेशित किया गया है।

आप लाल झंडा उठाने का फैसला करते हैं।

आइए चर्चा के लिए मान लें कि एक रेड फ्लैग एआई कानून बनाया गया है जो आपके अधिकार क्षेत्र को कवर करता है। यह स्थानीय कानून, राज्य कानून, संघीय या अंतरराष्ट्रीय कानून हो सकता है। एक विश्लेषण के लिए जिसे मैंने स्थानीय नेतृत्व के बढ़ते महत्व पर हार्वर्ड की ऑटोनॉमस व्हीकल पॉलिसी इनिशिएटिव (एवीपीआई) के साथ सह-लेखक बनाया, जब समुदाय सेल्फ-ड्राइविंग कारों के उपयोग को अपनाते हैं, देखें यहाँ लिंक.

तो, आप रेड फ्लैग एआई डेटाबेस पर ऑनलाइन जाते हैं। घटना डेटाबेस में, आप सेल्फ-ड्राइविंग कार यात्रा के बारे में जानकारी दर्ज करते हैं। इसमें सेल्फ-ड्राइविंग कार के ब्रांड और मॉडल के साथ-साथ ड्राइविंग ट्रेक की तारीख और समय शामिल है। फिर आप नौवहन मार्ग में प्रवेश करते हैं जो संदिग्ध प्रतीत होता है, और आप सुझाव दे रहे हैं या शायद एकमुश्त दावा कर रहे हैं कि एआई पक्षपाती या भेदभावपूर्ण इरादे और क्षमताओं के साथ तैयार किया गया था।

हमें रेड फ्लैग एआई कानून के अन्य विवरणों पर अनुमान लगाना होगा कि इस विशेष परिदृश्य में आगे क्या होता है। सिद्धांत रूप में, किसी के लिए लाल झंडे की समीक्षा करने का प्रावधान होगा। वे संभवतः ऑटोमेकर या सेल्फ-ड्राइविंग टेक फर्म को लॉग किए गए लाल झंडे पर अपनी बात समझाने की कोशिश करेंगे। ऐसे कितने अन्य लाल झंडे पंजीकृत किए गए हैं? उन लाल झंडों से क्या परिणाम निकले?

और इसी तरह चलता रहेगा।

निष्कर्ष

बेतुका, कुछ संशयवादी उपदेश देते हैं।

हमें रेड फ्लैग एआई कानूनों की जरूरत नहीं है, वे कड़ी मेहनत करते हैं। जब एआई की गति और प्रगति की बात आती है तो इस तरह का कुछ भी करने से काम में तेजी आएगी। ऐसा कोई भी कानून बोझिल होगा। आप एक ऐसी समस्या पैदा कर रहे होंगे जो किसी समस्या का समाधान नहीं करती। एआई से निपटने के और भी तरीके हैं जो खराब हैं। पक्षपाती एआई से निपटने के लिए तिनके को आँख बंद करके न पकड़ें।

गियर बदलते हुए, हम सभी जानते हैं कि बुलफाइटर्स गुस्से में बैल का ध्यान आकर्षित करने के लिए लाल टोपी का उपयोग करते हैं। हालांकि लाल वह रंग है जिसे हम इस प्रथा से सबसे अधिक जोड़ते हैं, आपको यह जानकर आश्चर्य हो सकता है कि वैज्ञानिकों का कहना है कि बैल मुलेट के लाल रंग को नहीं समझते हैं (वे रंग-अंधा से लाल होते हैं)। लोकप्रिय शो MythBusters इस मामले की काफी मनोरंजक जांच की। चुने हुए रंग के बजाय केप की गति प्रमुख तत्व है।

उन लोगों के लिए जो रेड फ्लैग एआई कानूनों की आवश्यकता को दूर करते हैं, एक प्रतिवाद यह है कि हमें यह सुनिश्चित करने के लिए एक नाटकीय और अचूक लहराती प्रकृति की आवश्यकता है कि एआई डेवलपर्स और एआई को तैनात करने वाली फर्म पक्षपाती या खराब एआई से दूर रहें। यदि लाल झंडे के लिए नहीं, तो शायद एक फहराता हुआ केप या मूल रूप से किसी भी प्रकार का सतर्क दृष्टिकोण उचित विचार प्राप्त करने के दायरे में हो सकता है।

हम निश्चित रूप से जानते हैं कि खराब AI मौजूद है और बहुत अधिक खराब AI हमारी दिशा में जाने वाला है। प्रतिकूल एआई से खुद को बचाने के तरीके खोजना महत्वपूर्ण है। इसी तरह, खराब एआई को दुनिया में आने से रोकने के लिए रेलिंग लगाना भी उतना ही महत्वपूर्ण है।

अर्नेस्ट हेमिंग्वे ने प्रसिद्ध रूप से कहा कि बुलफाइटर्स को छोड़कर कोई भी कभी भी अपना जीवन पूरी तरह से नहीं जीता है। हमें यह सुनिश्चित करने की आवश्यकता है कि मनुष्य अपना जीवन हर तरह से जी सकें, भले ही एआई की बुराई या पागलपन हम पर प्रख्यापित हो।

स्रोत: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-installing-so-call-red-flag-ai-laws-for-calling-out- पक्षपाती-एल्गोरिदम-में-स्वायत्त-एआई-सिस्टम/