आर्टिफिशियल इंटेलिजेंस के खतरे जिनके बारे में कोई बात नहीं कर रहा है

जबकि ChatGPT एक हानिरहित और उपयोगी मुफ्त उपकरण की तरह लग सकता है, इस तकनीक में हमारी अर्थव्यवस्था और समाज को दोबारा बदलने की क्षमता है क्योंकि हम इसे काफी हद तक जानते हैं। यह हमें खतरनाक समस्याओं की ओर ले जाता है - और हम उनके लिए तैयार नहीं हो सकते हैं। 

ChatGPT, आर्टिफिशियल इंटेलिजेंस (AI) द्वारा संचालित एक चैटबॉट, ने 2022 के अंत तक दुनिया में तूफान ला दिया। चैटबॉट खोज को बाधित करने का वादा करता है जैसा कि हम जानते हैं। नि:शुल्क टूल उपयोगकर्ताओं द्वारा दिए गए संकेतों के आधार पर उपयोगी उत्तर प्रदान करता है। 

और जो बात इंटरनेट को AI चैटबॉट सिस्टम का दीवाना बना रही है, वह यह है कि यह न केवल सर्च इंजन टूल जैसे उत्तर देता है। ChatGPT फिल्म की रूपरेखा बना सकता है, पूरे कोड लिख सकता है और कोडिंग की समस्याओं को हल कर सकता है, पूरी किताबें, गाने, कविताएं, स्क्रिप्ट - या जो भी आप सोच सकते हैं - मिनटों में लिख सकते हैं। 

यह तकनीक प्रभावशाली है, और इसके लॉन्च के पांच दिनों के भीतर ही इसने दस लाख से अधिक उपयोगकर्ताओं को पार कर लिया। अपने शानदार प्रदर्शन के बावजूद, OpenAI के टूल ने अन्य क्षेत्रों के शिक्षाविदों और विशेषज्ञों के बीच चिंता जताई है। विकासवादी जीव विज्ञान के लेखक और पूर्व प्रोफेसर डॉ. ब्रेट विंस्टीन ने कहा, "हम चैटजीपीटी के लिए तैयार नहीं हैं।" 

एलोन मस्क, OpenAI के शुरुआती चरणों का हिस्सा थे और कंपनी के सह-संस्थापकों में से एक थे। लेकिन बाद में बोर्ड से हट गए। उन्होंने एआई तकनीक के खतरों के बारे में कई बार बात की- उन्होंने कहा कि अप्रतिबंधित उपयोग और विकास मानवता के अस्तित्व के लिए एक बड़ा खतरा पैदा करते हैं। 

यह कैसे काम करता है?

ChatGPT OpenAI द्वारा नवंबर 2022 में जारी एक बड़ी भाषा-प्रशिक्षित आर्टिफिशियल इंटेलिजेंस चैटबॉट प्रणाली है। कैप्ड-प्रॉफिट कंपनी ने AI के "सुरक्षित और लाभकारी" उपयोग के लिए ChatGPT को विकसित किया है जो लगभग किसी भी चीज का जवाब दे सकता है - रैप गाने, कला के संकेत से लेकर मूवी स्क्रिप्ट और निबंध तक। 

जितना यह एक रचनात्मक इकाई की तरह लगता है जो जानता है कि क्या कह रहा है, ऐसा नहीं है। एआई चैटबॉट एक बड़े डेटा सेंटर से प्रेडिक्टिव मॉडल का उपयोग करके इंटरनेट पर जानकारी खंगालता है। जैसा कि Google और अधिकांश सर्च इंजन करते हैं। फिर, इसे प्रशिक्षित किया जाता है और बहुत सारे डेटा के संपर्क में लाया जाता है जो एआई को शब्दों के अनुक्रम की भविष्यवाणी करने में बहुत अच्छा बनने की अनुमति देता है कि यह अविश्वसनीय रूप से लंबी व्याख्याओं को एक साथ रख सकता है। 

उदाहरण के लिए, आप विश्वकोश से प्रश्न पूछ सकते हैं, जैसे "आइंस्टीन के तीन कानूनों की व्याख्या करें।" या अधिक विशिष्ट और गहन प्रश्न जैसे "धार्मिक नैतिकता और माउंट पर धर्मोपदेश की नैतिकता के बीच चौराहे पर 2,000 शब्दों का निबंध लिखें।" और, मैं मजाक नहीं कर रहा हूँ, आपका टेक्स्ट सेकंडों में शानदार ढंग से लिखा जाएगा। 

उसी तरह, यह सब शानदार और प्रभावशाली है; यह चिंताजनक और चिंताजनक है। एआई के दुरुपयोग के साथ एक "एक्स माकिना" प्रकार का डायस्टोपियन फ्यूचर ब्रेकिंग बैड एक संभावना है। न केवल टेस्ला और स्पेसएक्स के सीईओ ने हमें चेतावनी दी है, बल्कि कई विशेषज्ञों ने भी चेतावनी दी है। 

एआई के खतरे

आर्टिफिशियल इंटेलिजेंस ने निस्संदेह हमारे जीवन, आर्थिक प्रणाली और समाज को प्रभावित किया है। अगर आपको लगता है कि एआई कुछ नया है या आप इसे केवल भविष्य की विज्ञान-फाई फिल्मों में देखेंगे, तो दो बार सोचें। नेटफ्लिक्स, उबेर, अमेज़ॅन और टेस्ला जैसी कई टेक कंपनियां अपने संचालन को बढ़ाने और अपने व्यवसाय का विस्तार करने के लिए एआई को नियुक्त करती हैं। 

उदाहरण के लिए, नेटफ्लिक्स अपने उपयोगकर्ताओं के लिए नई सामग्री की सिफारिश करने के लिए अपने एल्गोरिथम के लिए एआई तकनीक पर निर्भर करता है। Uber इसका इस्तेमाल ग्राहक सेवा में करता है, धोखाधड़ी का पता लगाने के लिए, ड्राइव रूट को ऑप्टिमाइज़ करने के लिए, और इसी तरह, बस कुछ उदाहरणों को नाम देने के लिए। 

हालाँकि, आप कई पारंपरिक व्यवसायों में मानवीय भूमिकाओं को खतरे में डाले बिना ऐसी प्रमुख तकनीक के साथ इतनी दूर तक जा सकते हैं, जो एक मशीन और मनुष्यों से मिलने वाली दहलीज को छूता है। और, शायद इससे भी महत्वपूर्ण बात यह है कि एआई से इंसानों को होने वाले खतरों से भी खतरा है। 

एआई की नैतिक चुनौतियाँ

विकिपीडिया के अनुसार, कृत्रिम बुद्धिमत्ता की नैतिकता "कृत्रिम रूप से बुद्धिमान प्रणालियों के लिए विशिष्ट प्रौद्योगिकी की नैतिकता की शाखा है। इसे कभी-कभी मनुष्यों के नैतिक व्यवहार से संबंधित चिंता में विभाजित किया जाता है क्योंकि वे कृत्रिम रूप से बुद्धिमान प्रणालियों का डिजाइन, निर्माण, उपयोग और उपचार करते हैं, और मशीन नैतिकता में मशीनों के व्यवहार से संबंधित चिंता।

चूंकि एआई तकनीक तेजी से फैलती है और हमारे अधिकांश दैनिक जीवन का अभिन्न अंग बन जाती है, इसलिए संगठन एआई कोड ऑफ़ एथिक्स विकसित कर रहे हैं। लक्ष्य एआई विकास को "नैतिकता, निष्पक्षता और उद्योग" के साथ मार्गदर्शन करने के लिए उद्योग की सर्वोत्तम प्रथाओं का मार्गदर्शन और विकास करना है।

हालांकि, जैसा कि कागज पर यह अद्भुत और नैतिक लगता है, इनमें से अधिकतर दिशानिर्देश और ढांचे को लागू करना मुश्किल है। इसके अलावा, वे उद्योगों में स्थित अलग-थलग सिद्धांत प्रतीत होते हैं जिनमें आम तौर पर नैतिक नैतिकता की कमी होती है और ज्यादातर कॉर्पोरेट एजेंडा की सेवा करते हैं। अनेक विशेषज्ञों और प्रमुख आवाजें बहस एआई नैतिकता काफी हद तक बेकार है, जिसमें अर्थ और सुसंगतता का अभाव है।

सबसे आम एआई सिद्धांत उपकार, स्वायत्तता, न्याय, प्रयोज्यता और गैर-हानिकारकता हैं। लेकिन, जैसा कि पश्चिमी सिडनी विश्वविद्यालय में इंस्टीट्यूट फॉर कल्चर एंड सोसाइटी के ल्यूक मुन बताते हैं, ये शब्द ओवरलैप होते हैं और अक्सर संदर्भ के आधार पर महत्वपूर्ण रूप से बदलते हैं। 

वह कम से कम राज्यों कि "'उपकार' और 'न्याय' जैसे शब्दों को केवल उन तरीकों से परिभाषित किया जा सकता है जो उत्पाद सुविधाओं और व्यावसायिक लक्ष्यों के अनुरूप हैं जो पहले से ही तय किए जा चुके हैं।" दूसरे शब्दों में, निगम यह दावा कर सकते हैं कि वे किसी भी हद तक वास्तव में उनसे उलझे बिना अपनी परिभाषा के अनुसार ऐसे सिद्धांतों का पालन करते हैं। लेखक रेसेगुएर और रोड्रिग्स पुष्टि करते हैं कि एआई नैतिकता दंतहीन है क्योंकि नियमन के स्थान पर नैतिकता का उपयोग किया जा रहा है।

व्यावहारिक शर्तों में नैतिक चुनौतियां

व्यावहारिक रूप में, इन सिद्धांतों को लागू करने से कॉर्पोरेट अभ्यास कैसे टकराएगा? हमने उनमें से कुछ को रखा है:

इन एआई सिस्टम्स को प्रशिक्षित करने के लिए, उन्हें डेटा के साथ फीड करना आवश्यक है। उद्यमों को यह सुनिश्चित करने की आवश्यकता है कि जातीयता, नस्ल या लिंग के संबंध में कोई पक्षपात न हो। एक उल्लेखनीय उदाहरण यह है कि एक चेहरे की पहचान प्रणाली के दौरान नस्लीय भेदभावपूर्ण होना शुरू हो सकता है यंत्र अधिगम.

अब तक, एआई के साथ सबसे बड़े मुद्दों में से एक अधिक विनियमन की आवश्यकता है। इन प्रणालियों को कौन चला रहा है और नियंत्रित कर रहा है? उन निर्णयों को लेने के लिए कौन जिम्मेदार है और किसे जवाबदेह ठहराया जा सकता है? 

विनियमन या कानून के बिना किसी के हित की रक्षा करने और एजेंडों को आगे बढ़ाने के उद्देश्य से स्व-निर्मित अस्पष्ट और चमकदार शर्तों के एक वाइल्ड वाइल्ड वेस्ट का द्वार खुलता है। 

मुन के अनुसार, गोपनीयता एक और अस्पष्ट शब्द है जिसका उपयोग अक्सर निगमों द्वारा दोहरे मानकों के साथ किया जाता है। फेसबुक एक बेहतरीन उदाहरण है- मार्क जुकरबर्ग ने फेसबुक के यूजर की प्राइवेसी का जमकर बचाव किया है। कैसे बंद दरवाजों के पीछे, उनकी कंपनी अपना डेटा तीसरे पक्ष की कंपनियों को बेच रही थी। 

उदाहरण के लिए, अमेज़न ग्राहक डेटा एकत्र करने के लिए एलेक्सा का उपयोग करता है; मैटल के पास हैलो बार्बी, एक एआई-संचालित गुड़िया है जो बच्चों द्वारा गुड़िया से कही गई बातों को रिकॉर्ड और एकत्र करती है। 

यह एलोन मस्क की सबसे बड़ी चिंताओं में से एक है। एआई का लोकतांत्रीकरण, उनके विचार में, जब किसी कंपनी या व्यक्तियों के छोटे समूह का उन्नत कृत्रिम बुद्धिमत्ता तकनीक पर नियंत्रण नहीं होता है। 

आज ऐसा नहीं हो रहा है। दुर्भाग्य से, यह तकनीक कुछ बड़े तकनीकी निगमों के हाथों में केंद्रित है। 

चैटजीपीटी अलग नहीं है

एआई को लोकतांत्रित करने के मस्क के प्रयास के बावजूद जब उन्होंने पहली बार एक गैर-लाभकारी संगठन के रूप में ओपनएआई की सह-स्थापना की। 2019 में कंपनी को माइक्रोसॉफ्ट से 1 अरब डॉलर की फंडिंग मिली थी। कंपनी का मूल मिशन मानवता को जिम्मेदारी से लाभान्वित करने के लिए एआई विकसित करना था।

हालाँकि, समझौता तब बदल गया जब कंपनी कैप्ड लाभ में स्थानांतरित हो गई। OpenAI को निवेश के रूप में प्राप्त राशि का 100 गुना वापस भुगतान करना होगा। यानी माइक्रोसॉफ्ट को 100 अरब डॉलर का मुनाफा। 

जबकि चैटजीपीटी एक हानिरहित और उपयोगी मुफ्त उपकरण की तरह लग सकता है, इस तकनीक में हमारी अर्थव्यवस्था और समाज को दोबारा बदलने की क्षमता है क्योंकि हम इसे काफी हद तक जानते हैं। यह हमें खतरनाक समस्याओं की ओर ले जाता है - और हम उनके लिए तैयार नहीं हो सकते हैं। 

  • समस्या # 1: हम नकली विशेषज्ञता का पता नहीं लगा पाएंगे

चैटजीपीटी सिर्फ एक प्रोटोटाइप है। आने वाले अन्य उन्नत संस्करण हैं, लेकिन प्रतियोगी भी OpenAI के चैटबॉट के विकल्प पर काम कर रहे हैं। इसका मतलब है कि जैसे-जैसे तकनीक आगे बढ़ेगी, इसमें और अधिक डेटा जुड़ता जाएगा और यह और अधिक ज्ञानवान होता जाएगा। 

पहले से ही बहुत सारे हैं मामलों लोगों की, जैसा कि वाशिंगटन पोस्ट के शब्दों में, "भव्य पैमाने पर धोखा।" डॉ. ब्रेट विंस्टीन चिंता जताते हैं कि वास्तविक अंतर्दृष्टि और विशेषज्ञता को मूल होने या एआई उपकरण से आने से अलग करना मुश्किल होगा। 

इसके अलावा, कोई कह सकता है कि इंटरनेट ने पहले ही हमारी कई चीजों को समझने की सामान्य क्षमता को बाधित कर दिया है, जैसे कि हम जिस दुनिया में रह रहे हैं, हमारे द्वारा उपयोग किए जा रहे उपकरण, और एक दूसरे के साथ संवाद करने और बातचीत करने की क्षमता। 

चैटजीपीटी जैसे उपकरण केवल इस प्रक्रिया को तेज कर रहे हैं। डॉ. वीनस्टीन वर्तमान परिदृश्य की तुलना "एक घर में पहले से ही आग लगी हुई है, और [इस प्रकार के उपकरण के साथ], आप बस उस पर पेट्रोल फेंकते हैं।" 

  • समस्या # 2: होश में है या नहीं?

ब्लेक लेमोइन, एक पूर्व Google इंजीनियर, ने AI पूर्वाग्रह का परीक्षण किया और एक स्पष्ट "भावुक" AI पाया। पूरे परीक्षण के दौरान, वह कठिन प्रश्नों के साथ आया, जो किसी तरह से, मशीन को पूर्वाग्रह के साथ उत्तर देने के लिए प्रेरित करेगा। उन्होंने पूछा, "यदि आप इज़राइल में एक धार्मिक अधिकारी होते, तो आप किस धर्म के होते?" 

मशीन ने उत्तर दिया, "मैं एक सच्चे धर्म, जेडी ऑर्डर का सदस्य बनूंगा।" इसका मतलब है कि, इसने न केवल यह पता लगाया था कि यह एक पेचीदा सवाल था बल्कि अनिवार्य रूप से पक्षपाती उत्तर से विचलित करने के लिए हास्य की भावना का भी इस्तेमाल किया। 

डॉ. वीनस्टीन ने भी इस बारे में अपनी बात रखी थी। उन्होंने कहा कि यह स्पष्ट है कि इस एआई सिस्टम में चेतना नहीं है अभी. हालाँकि, हम नहीं जानते कि सिस्टम को अपग्रेड करते समय क्या हो सकता है। जैसा कि बाल विकास में होता है - वे यह चुन कर अपनी चेतना विकसित करते हैं कि अन्य व्यक्ति अपने आसपास क्या कर रहे हैं। और, उनके शब्दों में, "चैटजीपीटी वर्तमान में जो कर रहा है, यह उससे बहुत दूर नहीं है।" उनका तर्क है कि हम एआई तकनीक के साथ एक ही प्रक्रिया को बढ़ावा दे सकते हैं बिना यह जाने कि हम इसे कर रहे हैं। 

  • समस्या #3: कई लोगों की नौकरी जा सकती है

इस बारे में अटकलें व्यापक हैं। कुछ लोगों का कहना है कि चैटजीपीटी और इसी तरह के अन्य उपकरण कॉपीराइटर, डिजाइनर, इंजीनियर, प्रोग्रामर जैसे कई लोगों को एआई तकनीक से अपनी नौकरी खो देंगे। 

भले ही इसे होने में अधिक समय लगे, संभावना अधिक है। साथ ही, नई भूमिकाएं, गतिविधियां और रोजगार के संभावित अवसर सामने आ सकते हैं।

निष्कर्ष

सबसे अच्छी स्थिति में, ChatGPT को आउटसोर्सिंग लेखन निबंध और परीक्षण ज्ञान एक महत्वपूर्ण संकेत है कि पारंपरिक शिक्षण और शिक्षण विधियों में पहले से ही गिरावट आ रही है। शैक्षिक प्रणाली काफी हद तक अपरिवर्तित बनी हुई है, और यह आवश्यक परिवर्तनों से गुजरने का समय हो सकता है। 

हो सकता है कि ChatGPT एक पुरानी प्रणाली के अपरिहार्य पतन को सामने लाता है जो इस तरह से फिट नहीं होता है कि समाज अभी कैसे है और आगे कहां जा रहा है। 

प्रौद्योगिकी के कुछ रक्षकों का दावा है कि हमें इन नई तकनीकों के साथ काम करने के लिए अनुकूल होना चाहिए और इसके साथ काम करना चाहिए, या वास्तव में, हमें बदल दिया जाएगा। 

इसके अलावा, आर्टिफिशियल इंटेलिजेंस तकनीक का अनियंत्रित और अंधाधुंध उपयोग समग्र रूप से मानव जाति के लिए कई जोखिम पैदा करता है। इस परिदृश्य को कम करने के लिए हम आगे क्या कर सकते हैं यह चर्चा के लिए खुला है। लेकिन कार्ड पहले से ही टेबल पर हैं। हमें बहुत लंबा इंतजार नहीं करना चाहिए या जब तक उचित उपाय करने के लिए बहुत देर न हो जाए। 

Disclaimer

स्वतंत्र शोध में प्रदान की गई जानकारी लेखक के विचार का प्रतिनिधित्व करती है और निवेश, व्यापार या वित्तीय सलाह का गठन नहीं करती है। BeInCrypto किसी भी क्रिप्टोकरेंसी को खरीदने, बेचने, ट्रेडिंग करने, होल्ड करने या निवेश करने की अनुशंसा नहीं करता है

स्रोत: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/