एआई-पावर्ड जॉब रिक्रूटमेंट टूल्स से हायरिंग डायवर्सिटी में सुधार नहीं हो सकता है, विशेषज्ञों का तर्क है

दिग्गज कंपनियां कीमतों

नौकरी भर्ती उपकरण जो लिंग और नस्लीय पूर्वाग्रहों से बचने के लिए कृत्रिम बुद्धि का उपयोग करने का दावा करते हैं, भर्ती में विविधता में सुधार नहीं कर सकते हैं, और वास्तव में उन पूर्वाग्रहों को कायम रख सकते हैं, कैम्ब्रिज विश्वविद्यालय के शोधकर्ताओं ने रविवार को तर्क दिया, कार्यक्रमों की कास्टिंग-जिनकी अतीत में आलोचना हुई है- एक गहरी समस्या के त्वरित समाधान की पेशकश करने के लिए प्रौद्योगिकी का उपयोग करने के एक तरीके के रूप में।

महत्वपूर्ण तथ्य

द्वारा प्रकाशित एक पेपर में दर्शन और प्रौद्योगिकी, शोधकर्ताओं ने कई कंपनियों के दावों को देखा जो एआई-संचालित भर्ती उपकरण प्रदान करते हैं, जिनमें से कई उम्मीदवारों के नाम, लिंग और अन्य पहचानकर्ताओं को छिपाकर पूर्वाग्रहों को खत्म करने और विविधता को बढ़ावा देने का दावा करते हैं, और जिनमें से कुछ रैंक उम्मीदवारों को फिर से शुरू स्कैन, ऑनलाइन मूल्यांकन और आवेदकों के भाषण और चेहरे के भावों के विश्लेषण के आधार पर।

कैम्ब्रिज विश्वविद्यालय के सेंटर फॉर जेंडर स्टडीज के शोधकर्ताओं- दो प्रोफेसरों ने तर्क दिया कि ये उपकरण वास्तव में भर्ती में एकरूपता को बढ़ावा दे सकते हैं क्योंकि वे "आदर्श उम्मीदवार" के सांस्कृतिक पूर्वाग्रहों को पुन: उत्पन्न करते हैं, जो ऐतिहासिक रूप से सफेद या यूरोपीय पुरुष रहे हैं।

उपकरण भी विविधता में सुधार नहीं कर सकते हैं क्योंकि वे पिछले कंपनी डेटा पर आधारित हैं और इस प्रकार उन उम्मीदवारों को बढ़ावा दे सकते हैं जो वर्तमान कर्मचारियों के समान हैं।

कैम्ब्रिज सेंटर फॉर जेंडर स्टडीज के एक अध्ययन के सह-लेखक और शोधकर्ता एलेनोर ड्रेज ने एक बयान में कहा, "इन उत्पादों को कैसे बनाया या परीक्षण किया जाता है, इसके लिए बहुत कम जवाबदेही है," प्रौद्योगिकी को जोड़ने से "खतरनाक" हो सकता है। "भ्रष्टाचार को 'निष्पक्ष' और निष्पक्ष कैसे बनाया जा सकता है, इस बारे में गलत सूचना का स्रोत।"

गंभीर भाव

"यह दावा करके कि जातिवाद, लिंगवाद और भेदभाव के अन्य रूपों को कृत्रिम बुद्धि का उपयोग करके भर्ती प्रक्रिया से दूर किया जा सकता है, ये कंपनियां शक्ति की प्रणालियों के बजाय जाति और लिंग को महत्वहीन डेटा बिंदुओं तक कम कर देती हैं, जो आकार देती हैं कि हम दुनिया के माध्यम से कैसे आगे बढ़ते हैं, ड्रेगे ने एक बयान में कहा।

स्पर्शरेखा

अमेज़ॅन ने 2018 में घोषणा की कि यह होगा रुकें नौकरी के आवेदकों के रिज्यूमे की समीक्षा करने के लिए एआई-रिक्रूटिंग टूल का उपयोग करने के बाद यह पाया गया कि सिस्टम महिलाओं के साथ बहुत भेदभाव कर रहा था। ऐसा इसलिए है क्योंकि पिछले 10 वर्षों में कंपनी को प्रस्तुत किए गए रेज़्यूमे के आधार पर जिन कंप्यूटर मॉडलों पर भरोसा किया गया था, जो ज्यादातर पुरुष आवेदकों से आए थे।

मुख्य पृष्ठभूमि

नौकरी की भर्ती प्रक्रियाओं को प्रबंधित करने में मदद के लिए संगठनों ने एआई की ओर रुख किया है। एक में 2020 मतदान रविवार के पेपर के लेखकों द्वारा उद्धृत 300 से अधिक मानव संसाधन नेताओं में से, कंसल्टिंग फर्म गार्टनर ने पाया कि 86% नियोक्ता अपने काम पर रखने की प्रथाओं में आभासी तकनीक का उपयोग करते हैं, एक प्रवृत्ति जो कोविड -19 महामारी के बाद से कई लोगों को ऑनलाइन काम करने के लिए मजबूर करती है। जबकि कुछ कंपनियों ने तर्क दिया है कि एआई अधिक लागत और समय-प्रभावी भर्ती प्रक्रिया की पेशकश कर सकता है, कुछ विशेषज्ञों है पाया सिस्टम में वास्तविक दुनिया से मौजूदा पूर्वाग्रहों की नकल करके नस्लीय और लिंग पक्षपाती भर्ती को खत्म करने के बजाय बढ़ावा देने की प्रवृत्ति है। कई अमेरिकी सांसदों ने उद्देश्य से कृत्रिम बुद्धिमत्ता प्रणालियों में पूर्वाग्रहों से निपटने के लिए, क्योंकि प्रौद्योगिकी तेजी से विकसित हो रही है और इसे विनियमित करने के लिए कुछ कानून मौजूद हैं। व्हाइट हाउस ने इस सप्ताह जारी किया एक "एआई बिल ऑफ राइट्स के लिए ब्लूप्रिंट", जो तर्क देता है कि भर्ती में उपयोग किए जाने वाले एल्गोरिदम "मौजूदा अवांछित असमानताओं को प्रतिबिंबित और पुन: उत्पन्न करने" या नए "पूर्वाग्रह और भेदभाव" को एम्बेड करने के लिए पाए गए हैं। ब्लूप्रिंट-जो कानूनी रूप से बाध्यकारी या आधिकारिक सरकारी नीति नहीं है-कंपनियों से यह सुनिश्चित करने के लिए कहता है कि एआई डेटा गोपनीयता में भेदभाव या उल्लंघन नहीं करता है, और उपयोगकर्ताओं को इस बात से अवगत कराता है कि तकनीक का उपयोग कब किया जा रहा है।

क्या देखना है

सिफारिशों की एक सूची में, रविवार के लेखक दर्शन और प्रौद्योगिकी कागज ने सुझाव दिया कि एआई प्रौद्योगिकियों को विकसित करने वाली कंपनियां "पूर्वाग्रह के व्यक्तिगत उदाहरणों" के बजाय व्यापक, व्यवस्थित असमानताओं पर ध्यान केंद्रित करती हैं। उदाहरण के लिए, उनका सुझाव है कि सॉफ्टवेयर डेवलपर्स उम्मीदवारों को छांटने, संसाधित करने और वर्गीकृत करने के लिए उपयोग की जाने वाली श्रेणियों की जांच करते हैं और ये श्रेणियां लिंग और जाति के बारे में कुछ मान्यताओं पर भरोसा करके भेदभाव को कैसे बढ़ावा दे सकती हैं। शोधकर्ताओं का यह भी तर्क है कि मानव संसाधन पेशेवरों को यह समझने की कोशिश करनी चाहिए कि एआई भर्ती उपकरण कैसे काम करते हैं और उनकी कुछ संभावित सीमाएं क्या हैं।

आश्चर्यजनक तथ्य

यूरोपीय संघ ने अपने नए में एआई-पावर्ड हायरिंग सॉफ्टवेयर और प्रदर्शन मूल्यांकन टूल को "उच्च जोखिम" के रूप में वर्गीकृत किया है मसौदा एआई पर कानूनी ढांचा, जिसका अर्थ है कि उपकरण अधिक जांच के अधीन होंगे और कुछ अनुपालन आवश्यकताओं को पूरा करने की आवश्यकता होगी।

इसके अलावा पढ़ना

एआई पूर्वाग्रह के खिलाफ लड़ाई का नेतृत्व करना चाहते हैं डीसी (अक्षीय)

स्रोत: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-Powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/