एफबीआई ने एआई डीपफेक जबरन वसूली घोटालों की चेतावनी दी

जीवन जैसी छवियां बनाने के लिए जेनेरेटिव एआई की क्षमता प्रभावशाली है, लेकिन यूएस फेडरल ब्यूरो ऑफ इन्वेस्टिगेशन का कहना है कि अपराधी जबरन वसूली के लिए पीड़ितों को निशाना बनाने के लिए डीपफेक का इस्तेमाल कर रहे हैं।

एजेंसी ने सोमवार को पीएसए अलर्ट में कहा, "एफबीआई को नाबालिग बच्चों और गैर-सहमति वाले वयस्कों सहित पीड़ितों से रिपोर्ट प्राप्त करना जारी है, जिनके फोटो या वीडियो को स्पष्ट सामग्री में बदल दिया गया था।"

FBI का कहना है कि कानून प्रवर्तन एजेंसियों को पिछले साल नाबालिगों को लक्षित ऑनलाइन जबरन वसूली की 7,000 से अधिक रिपोर्टें मिलीं, जिसमें अप्रैल से डीपफेक का उपयोग करके तथाकथित "सेक्सटॉर्शन स्कैम" के पीड़ितों की संख्या में वृद्धि हुई है।

डीपफेक एक तेजी से सामान्य प्रकार का वीडियो या ऑडियो सामग्री है जो आर्टिफिशियल इंटेलिजेंस के साथ बनाया गया है जो झूठी घटनाओं को दर्शाता है जो नकली के रूप में पहचानना कठिन होता जा रहा है, इसके लिए मिडजर्नी 5.1 और ओपनएआई के डीएएल-ई 2 जैसे जेनेरेटिव एआई प्लेटफॉर्म का धन्यवाद।

मई में, टेस्ला और ट्विटर के सीईओ एलोन मस्क ने क्रिप्टो निवेशकों को घोटाला करने के लिए बनाया गया एक डीपफेक वायरल हुआ। सोशल मीडिया पर साझा किए गए वीडियो में मस्क के पिछले साक्षात्कारों के फुटेज शामिल थे, जिन्हें घोटाले के लिए संपादित किया गया था।

डीपफेक सभी दुर्भावनापूर्ण नहीं होते हैं, इस साल की शुरुआत में सफेद बालेंसीगा जैकेट पहने हुए पोप फ्रांसिस का एक डीपफेक वायरल हुआ था, और हाल ही में, एआई-जेनरेट किए गए डीपफेक का उपयोग हत्या पीड़ितों को वापस जीवन में लाने के लिए भी किया गया है।

अपनी सिफारिशों में, एफबीआई ने किसी भी फिरौती का भुगतान करने के खिलाफ चेतावनी दी क्योंकि ऐसा करने से यह गारंटी नहीं मिलती है कि अपराधी वैसे भी डीपफेक पोस्ट नहीं करेंगे।

FBI व्यक्तिगत जानकारी और सामग्री को ऑनलाइन साझा करते समय भी सावधानी बरतने की सलाह देती है, जिसमें खातों को निजी बनाने, बच्चों की ऑनलाइन गतिविधि की निगरानी करने और उन लोगों के असामान्य व्यवहार पर नज़र रखने जैसी गोपनीयता सुविधाओं का उपयोग करना शामिल है, जिनसे आपने अतीत में बातचीत की थी। एजेंसी व्यक्तिगत और परिवार के सदस्यों की जानकारी के लिए लगातार ऑनलाइन खोज करने की भी सिफारिश करती है।

अलार्म बजने वाली अन्य एजेंसियों में यूएस फेडरल ट्रेड कमीशन शामिल है, जिसने चेतावनी दी थी कि अपराधी किसी दोस्त या परिवार के सदस्य का ऑडियो डीपफेक बनाने के बाद पैसे भेजने के लिए डीपफेक का उपयोग कर रहे हैं, जिसमें कहा गया है कि उनका अपहरण कर लिया गया है।

"आर्टिफिशियल इंटेलिजेंस अब एक विज्ञान-फाई फिल्म से दूर की कौड़ी का विचार नहीं है। हम इसके साथ जी रहे हैं, यहाँ और अभी। एक स्कैमर आपके प्रियजन की आवाज को क्लोन करने के लिए एआई का उपयोग कर सकता है, "एफटीसी ने मार्च में एक उपभोक्ता चेतावनी में कहा था, यह कहते हुए कि रिकॉर्डिंग ध्वनि को वास्तविक बनाने के लिए सभी आपराधिक ज़रूरतें परिवार के सदस्य की आवाज़ की एक छोटी ऑडियो क्लिप हैं।

एफबीआई ने अभी तक जवाब नहीं दिया है डिक्रिप्ट की टिप्पणी के लिए अनुरोध।

क्रिप्टो समाचारों के शीर्ष पर रहें, अपने इनबॉक्स में दैनिक अपडेट प्राप्त करें।

स्रोत: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams