3 कारण आपके संगठन को बाहरी एल्गोरिथम मूल्यांकनकर्ताओं की आवश्यकता होगी

सट्टा सरमा-हाईटॉवर द्वारा

व्यापारिक नेता आर्टिफिशियल इंटेलिजेंस (एआई) से जितना हो सकता है, सभी मूल्य निचोड़ रहे हैं। 2021 केपीएमजी अध्ययन में पाया गया अधिकांश सरकार, औद्योगिक विनिर्माण, वित्तीय सेवाएं, खुदरा, जीवन विज्ञान, और स्वास्थ्य सेवा व्यवसाय के नेताओं का कहना है कि एआई उनके संगठनों में कम से कम मध्यम रूप से कार्यात्मक है. अध्ययन में यह भी पाया गया कि आधे उत्तरदाताओं का कहना है कि उनके संगठन ने कोविड -19 महामारी के जवाब में एआई को अपनाने में तेजी लाई। जिन संगठनों में एआई को अपनाया गया है, उनमें से कम से कम आधे लोगों का कहना है कि तकनीक अपेक्षाओं से अधिक हो गई है।

एआई एल्गोरिदम आज के विभिन्न प्रकार के इंटरैक्शन और नवाचारों के लिए ज़िम्मेदार हैं—व्यक्तिगत से उत्पाद की सिफारिशें और ग्राहक सेवा बैंकों को अनुभव ऋण देने के निर्णय और भी पुलिस की प्रतिक्रिया.

लेकिन उनके द्वारा प्रदान किए जाने वाले सभी लाभों के लिए, एआई एल्गोरिदम बड़े जोखिमों के साथ आते हैं यदि उनकी लचीलापन, निष्पक्षता, व्याख्यात्मकता और अखंडता के लिए प्रभावी ढंग से निगरानी और मूल्यांकन नहीं किया जाता है। एआई की निगरानी और मूल्यांकन में व्यापारिक नेताओं की सहायता के लिए, ऊपर संदर्भित अध्ययन से पता चलता है कि a व्यापारिक नेताओं की बढ़ती संख्या चाहती है कि सरकार एआई को विनियमित करे ताकि संगठनों को सही तकनीक और व्यावसायिक प्रक्रियाओं में निवेश करने की अनुमति मिल सके। आवश्यक समर्थन और निरीक्षण के लिए, ऐसी सेवाएं प्रदान करने में अनुभव वाले सेवा प्रदाता द्वारा पेश किए गए बाहरी आकलन पर विचार करना बुद्धिमानी है। यहाँ तीन कारण हैं।

1. एल्गोरिदम "ब्लैक बॉक्स" हैं

एआई एल्गोरिदम- जो डेटा से समस्याओं को हल करने और कार्यों को अनुकूलित करने के लिए सीखते हैं-सिस्टम को स्मार्ट बनाते हैं, जिससे उन्हें इंसानों की तुलना में बहुत तेजी से अंतर्दृष्टि इकट्ठा करने और उत्पन्न करने में सक्षम बनाता है।

हालांकि, कुछ हितधारक इन एल्गोरिदम को "ब्लैक बॉक्स" मानते हैं, एक प्रमुख पेशेवर सेवा फर्म केपीएमजी के ऑडिट प्रबंध निदेशक ड्रू रोसेन बताते हैं। विशेष रूप से, कुछ हितधारक यह नहीं समझ सकते हैं कि एल्गोरिथम एक निश्चित निर्णय पर कैसे आया और इसलिए उस निर्णय की निष्पक्षता या सटीकता में विश्वास नहीं हो सकता है।

"एल्गोरिदम से प्राप्त परिणाम पूर्वाग्रह और परिणामों की गलत व्याख्या के लिए प्रवण हो सकते हैं," रोसेन कहते हैं। "इससे इकाई को कुछ जोखिम भी हो सकते हैं क्योंकि वे उन परिणामों का लाभ उठाते हैं और [उन्हें] जनता और उनके हितधारकों के साथ साझा करते हैं।"

एक एल्गोरिथ्म जो दोषपूर्ण डेटा का उपयोग करता है, उदाहरण के लिए, सबसे अच्छा अप्रभावी है और सबसे खराब रूप से हानिकारक है। व्यवहार में यह कैसा दिख सकता है? एआई-आधारित चैटबॉट पर विचार करें जो उपयोगकर्ताओं को गलत खाता जानकारी प्रदान करता है या एक स्वचालित भाषा अनुवाद उपकरण जो गलत तरीके से पाठ का अनुवाद करता है। दोनों मामलों में सरकारी संस्थाओं या कंपनियों के साथ-साथ उन घटकों और ग्राहकों के लिए गंभीर त्रुटियां या गलत व्याख्याएं हो सकती हैं जो उन एल्गोरिदम द्वारा किए गए निर्णयों पर भरोसा करते हैं।

ब्लैक-बॉक्स समस्या में एक अन्य योगदानकर्ता तब होता है जब अंतर्निहित पूर्वाग्रह एआई मॉडल के विकास में रिसता है, संभावित रूप से पक्षपातपूर्ण निर्णय लेने का कारण बनता है। उदाहरण के लिए, क्रेडिट ऋणदाता, उधार निर्णय लेने के लिए संभावित उधारकर्ताओं की क्रेडिट योग्यता का अनुमान लगाने के लिए एआई का तेजी से उपयोग करते हैं। हालांकि, एक जोखिम तब उत्पन्न हो सकता है जब एआई में महत्वपूर्ण इनपुट, जैसे संभावित उधारकर्ता का क्रेडिट स्कोर, सामग्री त्रुटि है, जिसके कारण उन व्यक्तियों को ऋण से वंचित किया जा रहा है।

यह एक बाहरी मूल्यांकनकर्ता की आवश्यकता पर प्रकाश डालता है जो एक निष्पक्ष मूल्यांकनकर्ता के रूप में काम कर सकता है और ऐतिहासिक डेटा की प्रासंगिकता और विश्वसनीयता के स्वीकृत मानदंडों के आधार पर एक केंद्रित मूल्यांकन प्रदान कर सकता है और मान्यताएं जो एल्गोरिदम को शक्ति प्रदान करती हैं।

2. हितधारक और नियामक पारदर्शिता की मांग करते हैं

2022 में, जिम्मेदार एआई के लिए कोई वर्तमान रिपोर्टिंग आवश्यकताएं नहीं थीं। हालाँकि, रोसेन कहते हैं, "ठीक उसी तरह जैसे शासी निकायों ने ESG [पर्यावरण, सामाजिक और शासन] विनियमन को पेश किया कुछ ESG मेट्रिक्स पर रिपोर्ट, यह केवल समय की बात है कि हम जिम्मेदार एआई के लिए अतिरिक्त विनियमन रिपोर्टिंग आवश्यकताओं को देखते हैं।"

वास्तव में, 1 जनवरी, 2023 से प्रभावी, न्यूयॉर्क शहर का स्थानीय कानून 144 यह आवश्यक है कि उपयोग करने से पहले एक स्वचालित रोजगार निर्णय उपकरण पर एक पूर्वाग्रह लेखा परीक्षा आयोजित की जाए।

और संघीय स्तर पर, राष्ट्रीय कृत्रिम बुद्धिमत्ता पहल अधिनियम 2020— जो एक पर बनाता है 2019 कार्यकारी आदेश-एआई तकनीकी मानकों और मार्गदर्शन पर केंद्रित है। इसके अतिरिक्त, एल्गोरिथम जवाबदेही अधिनियम स्वचालित निर्णय प्रणालियों और संवर्धित महत्वपूर्ण निर्णय प्रक्रियाओं के प्रभाव आकलन की आवश्यकता हो सकती है। और विदेशों में, आर्टिफिशियल इंटेलिजेंस एक्ट एआई सुरक्षा, अनुपालन, शासन और विश्वसनीयता पर विशिष्ट उद्देश्यों के साथ एक व्यापक नियामक ढांचे की पेशकश करते हुए प्रस्तावित किया गया है।

इन बदलावों के साथ, संगठन एक शासन सूक्ष्मदर्शी के अधीन हैं। एक एल्गोरिथम मूल्यांकनकर्ता ऐसी रिपोर्ट प्रदान कर सकता है जो नियामक आवश्यकताओं को संबोधित करती है और हितधारकों की गलत व्याख्या या जोखिम से बचने के दौरान हितधारक पारदर्शिता को बढ़ाती है। गुमराह मूल्यांकन के परिणामों से।

3. कंपनियां दीर्घकालिक जोखिम प्रबंधन से लाभान्वित होती हैं

केपीएमजी के प्रौद्योगिकी आश्वासन अभ्यास में एक भागीदार स्टीव कैमारा भविष्यवाणी करते हैं कि एआई निवेश बढ़ता रहेगा क्योंकि संस्थाएं स्वचालित प्रक्रियाओं के साथ आगे बढ़ती हैं, ऐसे नवाचार विकसित करती हैं जो ग्राहक अनुभव को बढ़ाते हैं और व्यावसायिक कार्यों में एआई विकास को वितरित करते हैं। प्रतिस्पर्धी और लाभदायक बने रहने के लिए, संगठनों को ऐसे प्रभावी नियंत्रणों की आवश्यकता होगी जो न केवल एआई की तात्कालिक कमियों को दूर करें बल्कि एआई-ईंधन वाले व्यवसाय संचालन से जुड़े किसी भी दीर्घकालिक जोखिम को भी कम करें।

यह वह जगह है जहां बाहरी मूल्यांकनकर्ता एक विश्वसनीय, जानकार संसाधन के रूप में कदम रखते हैं। जैसा कि संगठन तेजी से एआई अखंडता को एक व्यवसाय प्रवर्तक के रूप में अपनाते हैं, साझेदारी एक तदर्थ सेवा से कम और एक सुसंगत सहयोग की अधिक हो सकती है, कैमारा बताती है।

"हम आगे एक रास्ता देखते हैं जहां उन संगठनों के बीच निरंतर संबंध बनाने की आवश्यकता होगी जो निरंतर आधार पर एआई का विकास और संचालन कर रहे हैं और एक उद्देश्य बाहरी मूल्यांकनकर्ता हैं।"

आगे क्या होता है की ओर एक नजर

भविष्य में, संगठन बाहरी आकलन का अधिक चक्रीय आधार पर उपयोग कर सकते हैं क्योंकि वे नए मॉडल विकसित करते हैं, नए डेटा स्रोतों को अंतर्ग्रहण करते हैं, तृतीय-पक्ष विक्रेता समाधानों को एकीकृत करते हैं या नई अनुपालन आवश्यकताओं को नेविगेट करते हैं, उदाहरण के लिए।

जब अतिरिक्त विनियमन और अनुपालन आवश्यकताओं को अनिवार्य किया जाता है, तो बाहरी मूल्यांकनकर्ता सीधे यह मूल्यांकन करने के लिए सेवाएं प्रदान करने में सक्षम हो सकते हैं कि किसी संगठन ने उन आवश्यकताओं के संबंध में एआई को कितनी अच्छी तरह से तैनात या उपयोग किया है। ये मूल्यांकनकर्ता तब स्पष्ट और सुसंगत तरीके से मूल्यांकन परिणामों को साझा करने के लिए सबसे अच्छी स्थिति में होंगे।

प्रौद्योगिकी को भुनाने के लिए अपनी सीमाओं के विरुद्ध सुरक्षा करते हुए, एक संगठन को बाहरी मूल्यांकनकर्ताओं की तलाश करनी चाहिए ताकि वे रिपोर्ट प्रदान कर सकें कि वह एल्गोरिदम को तैनात करते समय अधिक पारदर्शिता प्रदर्शित करने के लिए भरोसा कर सके। वहां से, संगठन और हितधारक दोनों एआई की शक्ति और इसकी सीमाओं को बेहतर ढंग से समझ सकते हैं।

स्रोत: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/