एआई हाइप का क्राई वुल्फ मोमेंट बेकार है

यद्यपि मैं कोई ऐसा व्यक्ति हूं जो मानवता के परिदृश्यों के अंत का अध्ययन करता है, मेरा मानना ​​​​है कि "विशेषज्ञ पत्र" 6 महीने की एआई अधिस्थगन का सुझाव देता है या अधिक हाल का बयान है कि एआई जोखिम महामारी और परमाणु जोखिम के स्तर पर है, दोनों ही बहुत अधिक हैं। यहां तक ​​कि जंगली राय है कि हमें एआई को बंद करने की जरूरत है, गैर-जिम्मेदाराना है। कोई भी चिंता हमारे सामने आने वाले जोखिमों के अनुपात में होनी चाहिए। फिलहाल, हमें एआई से तत्काल कोई खतरा नहीं है।

वर्तमान एआई समाज को संभालने में सक्षम नहीं हैं। उनके पास भावनाएँ नहीं हैं और वे मानव जीवन की तरह सुरक्षा के पात्र नहीं हैं। वे अधीक्षण नहीं हैं और किसी भी सामान्य तरीके से मनुष्यों से आगे नहीं बढ़ते हैं। वास्तव में, वे बिल्कुल नहीं सोचते हैं। अभी, यदि प्रचुर मात्रा में डेटा खिलाया जाता है, तो AI गणना और भविष्यवाणी जैसे विशिष्ट कार्यों में बहुत अच्छे होते हैं। यह चिंताजनक नहीं है, ये ऐसी विशेषताएं हैं जो इन प्रणालियों में डिजाइन के अनुसार हैं। एआई के वादे में कैंसर को हल करना, औद्योगिक उत्पादन को बदलना, भविष्य के परिदृश्यों को प्रतिरूपित करना और पर्यावरणीय चुनौतियों का प्रबंधन करना शामिल है। ऐसा कहने के बाद, संसाधन-उपयोग, पारदर्शिता, पूर्वाग्रह, साइबर सुरक्षा और रोजगार पर इसके भविष्य के प्रभाव के लिए वर्तमान एआई की आलोचना करने के वैध कारण हैं।

एआई कम्प्यूटेशनल रूप से महंगे हैं - जिसका अर्थ है कि वे दुर्लभ, जीवाश्म ऊर्जा की बर्बादी हैं। इसे तुरंत संबोधित किया जाना है। लेकिन यह कोई अस्तित्वगत मुद्दा नहीं है, यह तर्कसंगत संसाधन उपयोग का मामला है। तथ्य यह है कि एआई जो बड़े और अक्षम डेटा मॉडल पर भरोसा करते हैं, अकादमिक या सरकार द्वारा ट्रैक और जांच करने के लिए बहुत महंगा हो रहे हैं, यह एक वास्तविक मुद्दा है। लेकिन यह जल्द ही ठीक करने योग्य है। कुलीन शैक्षणिक संस्थानों या सरकारों का संघ एक साथ जा सकता है और कंप्यूटिंग संसाधनों को साझा कर सकता है जिस तरह से उन्होंने सुपरकंप्यूटिंग के लिए किया है।

बड़े भाषा मॉडल (एलएलएम) एआई मॉडल हैं जो बड़ी मात्रा में डेटा से प्राकृतिक भाषा पाठ उत्पन्न कर सकते हैं। इसके साथ एक समस्या यह है कि ये ग्रंथ सीधे तौर पर अन्य लोगों के ईमानदार बौद्धिक योगदान से प्राप्त हुए हैं। वे वास्तव में चोरी के हैं। जनरेटिव एआई, विशेष रूप से, उपभोक्ता और संगठनात्मक डेटा दोनों के साथ-साथ रचनात्मक सामग्री को कॉपीराइट के उल्लंघन में पुनर्संयोजित करता है। यह गंभीर है, लेकिन अस्तित्वगत नहीं है, और इसके अलावा, यूरोपीय संघ, हॉलीवुड के पैरवी करने वाले और "बिग फाइव" पुस्तक प्रकाशक पहले से ही मामले पर हैं। उम्मीद है कि यह एआई की चोरी को धीमा कर देगा। वर्तमान दर पर, एआई अच्छे प्रशिक्षण डेटा से पहले ही भावना से बाहर निकल जाएगा।

एल्गोरिदम पहले से ही हमारे करों की गणना करने के लिए उपयोग किया जाता है, हमारे ऑनलाइन फ़ीड का चयन करता है, या लोगों को जेल में डालता है, उनमें पारदर्शिता की भारी कमी है। हालाँकि, यह वर्षों से है, और नवीनतम AI विकास से इसका कोई लेना-देना नहीं है। एआई पूर्वाग्रह एक सुविधा है और बग नहीं है। स्टीरियोटाइपिंग वास्तव में मुख्य दृष्टिकोण है जिसके माध्यम से ऐसे मॉडल काम करते हैं। सिवाय पूर्वाग्रह मशीन तर्क की अभेद्य परतों में छिपा है जो मनुष्यों, विशेषज्ञों या नहीं के लिए मायावी है। हमें जो सवाल करना चाहिए, वह उन डेवलपर्स की बुद्धिमत्ता है, जिन्होंने इस तरह के सिस्टम विकसित किए, न कि उनके द्वारा बनाए गए सिस्टम की क्षमता, जो एक दिया हुआ है। सिस्टम शायद ही कभी उन लोगों के ज्ञान या इरादों से बेहतर होगा जो इसे बनाते या चलाते हैं।

एआई प्रशिक्षण डेटा समाज में मौजूद पूर्वाग्रहों को दर्शाता है जिससे वह डेटा एकत्र किया गया था। खराब प्रशिक्षण डेटा का पुन: उपयोग एक चिंताजनक अभ्यास है जो एआई मॉडल को पहले से ही प्रदूषित करता है। वर्तमान एआई दृष्टिकोण केवल परिणाम प्राप्त करने के लिए पूर्वाग्रह को बढ़ाता है। यह, बेशक, हम जो चाहते हैं, उसके विपरीत है। हम जो करना चाहते हैं वह मानव त्रुटि की रक्षा के लिए प्रौद्योगिकी का उपयोग करना है। मशीन की त्रुटि के बारे में चिंता करना मानव बुद्धि का व्यर्थ उपयोग है।

"तंत्रिका नेटवर्क" रूपक के बावजूद, वर्तमान एआई कल्पना के किसी भी हिस्से से दिमाग के समान नहीं होते हैं। वर्तमान एआई सिस्टम मनुष्यों की तरह सादृश्य द्वारा तर्क नहीं कर सकते। यह अच्छा है। हम वास्तव में उस तरह के एआई संरेखण को नहीं चाहते हैं, जिसकी वकालत उत्साही लोग कर रहे हैं और अनुकरण करने की कोशिश कर रहे हैं। मशीनें इंसानों से अलग होनी चाहिए। इसी तरह हम एक दूसरे की ताकत को अधिकतम कर सकते हैं। और हम मशीनों को अलग और अलग कैसे रख सकते हैं। मशीनों को संरेखित करने में कोई रूचि नहीं होनी चाहिए।

एआई तेजी से अपराधियों और शत्रुतापूर्ण राज्यों के लिए एक संपत्ति के रूप में एक महत्वपूर्ण साइबर सुरक्षा खतरे का प्रतिनिधित्व करता है। लेकिन साइबर सुरक्षा एक परिपक्व उद्योग है जिसमें बहुत से विशेषज्ञ चुनौती से निपटने के लिए सुसज्जित हैं। साइबर सुरक्षा की आशंकाओं के कारण एआई को बंद करने का कोई कारण नहीं है।

एआई के कारण रोजगार में व्यवधान वर्षों से एक नीतिगत मुद्दा रहा है, पहले रोबोट के साथ, अब सॉफ्टवेयर-आधारित एआई सिस्टम के साथ। यानी सरकारें इससे निपटने के लिए तैयार रहेंगी। द एमआईटी वर्क ऑफ द फ्यूचर स्टडी में रोबोट के कारण बेरोजगारी के बारे में चिंता को बढ़ा-चढ़ा कर बताया गया। इंसान ने हमेशा काम करने के तरीके खोजे हैं और भविष्य में भी ऐसा करेगा। क्या AI से बदलेगा मैन्युफैक्चरिंग? यह पहले से ही हो रहा है, लेकिन काफी नियंत्रित तरीके से।

समय-समय पर, एआई वर्तमान कार्यक्षमता या भविष्य के दायरे के बारे में अत्यधिक वादों से ग्रस्त है। पहली एआई सर्दियां 1974-1980 में शुरू हुईं, जब अमेरिकी सरकार ने इसकी फंडिंग रोक दी। दूसरा 1987-1993 का था, जैसे-जैसे लागत बढ़ती गई, और AI अपने बड़े वादों को पूरा करने में विफल रहा।

नए प्रतिमानों के आने की प्रतीक्षा में, 2025–2030 की अवधि में, हम संभावित रूप से तीसरी एआई सर्दियों में प्रवेश करेंगे। कम से कम गर्म एआई गर्मियों की तुलना में हमसे वादा किया जाता है। कारण यह है कि, प्रचार के बावजूद, ऊपर बताए गए सभी कारणों से, बड़े भाषा मॉडल अपनी अधिकतम उपयोगिता तक पहुंचने वाले हैं और अंततः कम्प्यूटेशनल रूप से अधिक सुरुचिपूर्ण दृष्टिकोणों से अधिक पारदर्शी होने की आवश्यकता होगी।

ऐसा ही एक उम्मीदवार हाइपरडिमेंशनल कंप्यूटिंग है जो मशीनों को अधिक कुशलता से कारण बनाता है क्योंकि वे मशीनों को अर्थपूर्ण समझ देते हैं, वास्तविक दुनिया की जानकारी के पीछे अर्थ और संदर्भ को संसाधित करने की क्षमता। अभी, AI सिस्टम शब्दों और वाक्यांशों के बीच संबंधों को नहीं समझते हैं, वे केवल अनुमान लगाने में अच्छे हैं। वह अपर्याप्त है। हमें अंततः सन्निहित एआई की आवश्यकता होगी, क्योंकि सोच अंतरिक्ष की धारणा से बंधी है। मैन्युफैक्चरिंग में निश्चित रूप से ऐसा ही होता है जो एक अत्यधिक भौतिक खेल है। हमें एआई की भी आवश्यकता होगी जो मानव स्मृति सुविधाओं में सक्षम हो जैसे कि कुछ सूचनाओं को अग्रभूमि और अन्य सूचनाओं को पृष्ठभूमि के आधार पर प्राथमिकता देना। भूलना एक उपकरण है जिसका उपयोग मनुष्य अमूर्त सोच के लिए करते हैं, अप्रचलित संगठनात्मक प्रथाओं से आगे बढ़ते हैं, निर्णय लेते हैं, और क्षण में बने रहते हैं और यह केवल एक दोष नहीं है। अभी तक कोई भी मशीन यह बहुत अच्छी तरह से नहीं कर सकती है।

इस बीच, हमें नियमन करने की जरूरत है, लेकिन इस पल की नहीं। और, जब हम नियमन करते हैं, तो हम इसे अच्छी तरह से करते हैं। एआई के खराब नियमन से स्थिति और खराब होने की संभावना है। इस चुनौती के लिए नियामकों को जगाना मददगार हो सकता है, लेकिन मुझे यकीन नहीं है कि नियामकों की वर्तमान पीढ़ी उस तरह के व्यापक बदलावों के लिए तैयार है जो इसे अच्छी तरह से करने के लिए आवश्यक होंगे। यह शक्तिशाली कंपनियों (संभवतः सभी सूचीबद्ध कंपनियों) को कम करने, शासन में एआई के उपयोग को सीमित करने, और वर्तमान में उपभोक्ता बाजारों के काम करने के तरीके में भारी बदलाव का मतलब होगा। अनिवार्य रूप से, हमें समाज को फिर से जोड़ना होगा। यह हमें हमारी इच्छा से कुछ दशक पहले पतन की ओर ले जाएगा। एआई के आसपास की पारदर्शिता चुनौती नियंत्रण चर की तुलना में अधिक विकट हो सकती है, जिसके बारे में हर कोई इतना चिंतित है, ऐसा नहीं है कि वे असंबंधित हैं, निश्चित रूप से।

इसके अलावा, हर बार एआई बेंचमार्क हासिल करने पर हम समान रूप से चिंतित नहीं हो सकते। हमें कैस्केडिंग जोखिम के वास्तव में बड़े क्षणों के लिए अपनी ऊर्जा को संरक्षित करने की आवश्यकता है। वे आएंगे और ईमानदारी से कहूं तो हम तैयार नहीं हैं। मेरे कल्पित भविष्य के परिदृश्य (2075 के लिए विलुप्त होने के परिदृश्य देखें) में बड़े पैमाने पर डेटा उल्लंघन शामिल हैं जो पूरे देश को महीनों तक अपनी प्रक्रियाओं से बाहर रखते हैं। मुझे एआई के बारे में भी चिंता है जो आपराधिक समूहों या राज्य अभिनेताओं द्वारा मदद की जाती है। सबसे अधिक, मुझे एआई, नैनोटेक, सिंथेटिक जीव विज्ञान और क्वांटम प्रौद्योगिकी के संयोजन के बारे में चिंता है - अज्ञात क्षमता की लगभग अदृश्य अर्ध-जैविक बुद्धिमत्ता, शायद कुछ ही दशक दूर, ठीक उसी समय हो रहा है जब दुनिया जलवायु के व्यापक प्रभावों से भस्म हो जाएगी। परिवर्तन।

वर्तमान एआई मॉडल अभी तक मानवता के लिए खतरा बनने के लिए पर्याप्त रूप से अच्छी तरह से काम नहीं करते हैं। इससे पहले कि हम उन्हें बंद करने पर विचार करें, हमें बेहतर एआई की जरूरत है। इससे भी अधिक, हमें समझदार डेवलपर्स, अधिक संवेदनशील नागरिकों और बेहतर जानकार नीति निर्माताओं की आवश्यकता है। एआई को विनियमित करने के लिए हमें एक अवधारणा की भी आवश्यकता है। लेकिन यह कुछ भी धीमा किए बिना किया जा सकता है। यह सभी के लिए एक शैक्षिक यात्रा होगी। GPT 4 (2023) से संबंधित अधिस्थगन पत्र आने वाले दशकों में मानवता के सामने आने वाले जोखिमों के लिए केवल एक बेहोश सादृश्य है। 2023 में एआई जोखिम को महामारी जोखिम और परमाणु जोखिम के स्तर पर रखना समय से पहले है। क्या हम वहां पहुंचेंगे? शायद। लेकिन रोने वाले भेड़िये के परिणाम होते हैं। यह वास्तविक डर के बारे में आने वाली बहसों से ऑक्सीजन चूसता है।

स्रोत: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/