माइक्रोसॉफ्ट ने चालबाजों को विफल करने के लिए एआई चैटबॉट सुरक्षा बढ़ाई

Microsoft Corp ने Azure AI स्टूडियो में कई सुरक्षा सुविधाएँ जोड़ी हैं, जिससे समय के साथ, इस संभावना को कम करना जारी रहेगा कि उसके उपयोगकर्ता AI मॉडल को ऐसे मोड में कॉन्फ़िगर करते हैं जिससे वे असामान्य या अनुचित तरीके से कार्य करेंगे। रेडमंड में स्थित बहुराष्ट्रीय प्रौद्योगिकी कंपनी, वाशिंगटन ने एक ब्लॉग पोस्ट में सुधारों की रूपरेखा तैयार की, जिसमें एआई इंटरैक्शन की अखंडता की गारंटी देने और उपयोगकर्ता आधार में विश्वास को बढ़ावा देने पर जोर दिया गया।

शीघ्र ढालें ​​और भी बहुत कुछ 

प्रमुख विकासों में "प्रॉम्प्ट शील्ड्स" का निर्माण है, एक ऐसी तकनीक जिसे एआई चैटबॉट्स के साथ बातचीत करते समय शीघ्र इंजेक्शन खोजने और मारने के लिए डिज़ाइन किया गया है। ये तथाकथित जेलब्रेक हैं और मूल रूप से उपयोगकर्ताओं के इनपुट हैं जिन्हें जानबूझकर इस तरह से तैयार किया जाता है कि वे एआई मॉडल से अवांछित प्रतिक्रिया प्राप्त करें।

उदाहरण के लिए, माइक्रोसॉफ्ट त्वरित इंजेक्शन के साथ अप्रत्यक्ष रूप से अपनी भूमिका निभा रहा है, जहां बुरे आदेशों का निष्पादन संभव है, और इस तरह के परिदृश्य से डेटा चोरी और सिस्टम अपहरण जैसे गंभीर सुरक्षा परिणाम हो सकते हैं। रिस्पॉन्सिबल एआई के लिए माइक्रोसॉफ्ट की मुख्य उत्पाद अधिकारी सारा बर्ड के अनुसार, वास्तविक समय में इन अनोखे खतरों का पता लगाने और उनका जवाब देने के लिए तंत्र महत्वपूर्ण हैं।

माइक्रोसॉफ्ट का कहना है कि जल्द ही उपयोगकर्ता की स्क्रीन पर अलर्ट होंगे, जो यह बताएंगे कि कब कोई मॉडल गलत या भ्रामक जानकारी व्यक्त कर सकता है, जिससे अधिक उपयोगकर्ता-मित्रता और विश्वास सुनिश्चित होगा।

एआई टूल्स में भरोसा बनाना 

माइक्रोसॉफ्ट का प्रयास एक बड़ी पहल का हिस्सा है, जिसका उद्देश्य लोगों को तेजी से लोकप्रिय जेनरेटिव एआई में विश्वास दिलाना है जिसे व्यक्तिगत उपभोक्ताओं और कॉर्पोरेट ग्राहकों को लक्षित सेवाओं में बड़े पैमाने पर लागू किया जा रहा है। ऐसे उदाहरण सामने आने के बाद, माइक्रोसॉफ्ट ने एक बारीक दांत वाली कंघी अपनाई, जिससे उपयोगकर्ताओं के पास कोपायलट चैटबॉट को विचित्र या हानिकारक आउटपुट देने की क्षमता थी। यह उस परिणाम के समर्थन में होगा जो उल्लिखित जोड़-तोड़ रणनीति के खिलाफ मजबूत बचाव की आवश्यकता को दर्शाता है, जो एआई प्रौद्योगिकियों और लोकप्रिय ज्ञान के साथ बढ़ने की संभावना है। भविष्यवाणी करना और फिर उसे कम करना हमले के पैटर्न की पहचान है, जैसे कि जहां एक हमलावर सवाल दोहराता है या भूमिका निभाने के लिए संकेत देता है।

ओपनएआई के सबसे बड़े निवेशक और रणनीतिक साझेदार के रूप में, माइक्रोसॉफ्ट जिम्मेदार, सुरक्षित जेनरेटरेटिव एआई प्रौद्योगिकियों को शामिल करने और बनाने की सीमाओं को आगे बढ़ा रहा है। दोनों सुरक्षा उपायों के लिए जेनरेटिव एआई की जिम्मेदार तैनाती और मूलभूत मॉडल के लिए प्रतिबद्ध हैं। लेकिन बर्ड ने स्वीकार किया कि ये बड़े भाषा मॉडल, भले ही उन्हें भविष्य के अधिकांश एआई नवाचार की नींव के रूप में देखा जा रहा है, हेरफेर-प्रूफ नहीं हैं।

इन नींवों पर निर्माण करने में केवल मॉडलों पर निर्भर रहने से कहीं अधिक समय लगेगा; इसे एआई सुरक्षा के लिए एक व्यापक दृष्टिकोण की आवश्यकता होगी।

माइक्रोसॉफ्ट ने हाल ही में बदलते एआई खतरों के परिदृश्य की सुरक्षा के लिए उठाए जा रहे सक्रिय कदमों को दिखाने और गारंटी देने के लिए अपने एज़्योर एआई स्टूडियो के लिए सुरक्षा उपायों को मजबूत करने की घोषणा की है।

यह एआई के दुरुपयोग से बचने और समय पर स्क्रीन और अलर्ट को शामिल करके एआई इंटरैक्शन की अखंडता और विश्वसनीयता को संरक्षित करने का प्रयास करता है।

एआई तकनीक के निरंतर विकास और दैनिक जीवन के कई समावेशन में इसे अपनाने के साथ, माइक्रोसॉफ्ट और बाकी एआई समुदाय के लिए बहुत सतर्क सुरक्षा रुख बनाए रखने का समय आ गया है।

स्रोत: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/