आर्टिफिशियल इंटेलिजेंस की डीपफेक तकनीक के जरिए चुराई जा रही लोगों की आवाज।

केस 1
शालीमार गार्डन निवासी योगेश जिनका बुक पब्लिकेशन का काम है योगेश ने बताया कि उनके चचेरे भाई सोनू का दौराला हाइवे पर इलेक्ट्रॉनिक्स और फर्नीचर का शोरूम है सोनू के पास एक फोन आया आवाज मेरी थी रोते हुए कहने लगा कि में कनाडा में फंस गया हूं पुलिस के चंगुल में हूं एक एकाउंट नंबर भेज रहा हूं जितनी जल्दी हो सके आप पैसे भेज दो, भारत आ कर दे दूंगा। चूंकि आवाज चचेरे भाई योगेश की थी सोनू ने दो बार में 11 लाख रुपए की धनराशि ट्रांसफर कर दी 5 मिनट बाद फिर से रकम मांगी सोनू को शक हुआ योगेश के घर फोन पर जानकारी की तो सच सामने आया कि सोनू से ठगी हुई है।

केस 2
आईआईएमटी विश्वविद्यालय के स्कूल ऑफ मीडिया फिल्म एंड टेलीविजन स्टडीज के विभागाध्यक्ष विशाल शर्मा के स्टूडेंट अंकित शर्मा से विशाल की हूबहू आवाज में किसी अज्ञात व्यक्ति ने मोबाइल नंबर 9938420762 से कॉल कर स्वयं को कष्ट में बताकर तुरंत रुपए भेजने की रिक्वेस्ट की थी। हालांकि अंकित शर्मा ने विशाल को फोन करके वैरीफाई किया तो वह ठगी से बच गए। इस मामले में विशाल ने साइबर क्राइम पुलिस को सूचित कर थाने में तहरीर दे दी।

मेरठ (ब्यूरो)। सोशल साइट्स का क्रेज लगातार लोगों में बढ़ता ही जा रहा है। फोटो के साथ-साथ वीडियो अपलोड करने का शौक लोगों में काफी तेजी से बढ़ा है। कोई रील्स बनाकर डालता है, कोई अपने बच्चे का वीडियो डालता है, कोई अपने माता-पिता का। गर्लफ्रें ड बॉयफ्रेंड, पति-पत्नी अपने खुशगवार पलों को सोशल साइट्स पर शेयर करते रहते हैं। लेकिन अब ये बेहद खतरनाक होता जा रहा है। क्यों चौंक गए न। दरअसल, आपकी आवाज ही आपकी पहचान है लेकिन साइबर ठग आर्टिफिशियल इंटेलिजेंस की डीपफेक तकनीक के जरिए इस आवाज को ही चुरा रहे हैैं। इसी चुराई हुई आवाज के जरिए ही साइबर ठग लोगों को लाखों का चूना लगा रहे हैैं।

नहीं पहचान पाएंगे आïवाज
ऐसा हो सकता है कि आपके पास कोई फोन आए और सामने वाला आपको बताए कि वो आपका बेटा है, पति है या दोस्त है। आप कहोगे कि आप अपनों की आवाज तो पहचान ही लेंगे, नहीं ऐसा नहीं है कि क्योंकि वो आवाज आपके पति, बेटे या दोस्त की ही होगी। जिसे आर्टिफिशियल इंटेलिजेंस की मदद से चुराया गया होगा और फिर आपको ठगने के लिए उसका इस्तेमाल किया गया होगा।

सोशल साइट्स से आवाज कॉपी
दरअसल फेसबुक, इंस्टाग्राम और यूट्यूब में जो वीडियो आप अपने फन के लिए अपलोड कर रहे हैं उनकी मदद से आपकी आवाज को कॉपी करके आपके रिश्तेदारों को फोन किया जा रहा है और फिर पैसों की मांग की जा रही है। हमारे देश में भी इस तरह के धोखाधड़ी के केस आ चुके हैं। आवाज में कोई बदलाव नहीं होने की वजह से कोई शक भी नहीं कर रहा।

डीपफेक तकनीक का इस्तेमाल
आर्टिफिशियल इंटेलिजेंस एक तरह से बनावटी तरीके से विकसित की गई बौद्धिक क्षमता है। इसमें एक डीपफेक तकनीक होती है। इस तकनीक की मदद से ही किसी की भी आवाज, फोटो या वीडियो का सैंपल लेकर उसकी क्लोनिंग कर दी जाती है। इस तकनीक से तैयार ये ऑडियो-वीडियो इतने रियल होते हैं कि खुद आप अपनी आवाज सुनकर भ्रम में पड़ जाएंगे। देशभर में इस तरह की ठगी के कई केस दर्ज हो चुके हैं। पहले ये सिर्फ बाहरी देशों में ही हो रहा था, लेकिन अब यहां भी इस तरह के फ्र ॉड काफी ज्यादा बढ़ गए हैं।

ये बरतें सावधानी
हाल के दिनों में इस तरह की घटनाएं लगातार बढ़ी हैं। दोस्त रिश्तेदार बनकर मदद व इमरजेंसी के नाम पर लाखों की जालसाजी कर रहे हैं। अगर आपके पास दोस्त, रिश्तेदार की आवाज में किसी नंबर से फोन आए तो आप सतर्क हो जाएं। तुरंत ही उनके पास फोन कर पहले जानकारी लें तब पैसे दें। केवल आवाज पहचान कर पैसे दिए तो फंस जाएंगे।

छत्तीसगढ़ में भी ऐसे ही हुई ठगी
छत्तीसगढ़ में भी एक ऐसा ही केस सामने आया। जब जांजगीर-चांपा में रहने वाले एक टीचर गजेंद्र सिंह चौहान को उनके एक साथी टीचर साहू की आवाज से ठगों ने फोन किया। इमरजेंसी बताकर खाते में 35 हजार रुपए जमा करा लिए। गजेंद्र सिंह पहचान ही नहीं पाए कि वो आवाज साहू की नहीं थी। वो बिल्कुल उनके दोस्त की आवाज ही लग रही थी।

इस प्रकार के मामलों की जांच कराकर कार्रवाई की जाएगी। लेकिन आमजन को जागरूक होना चाहिए। यदि आपके किसी दोस्त या सगे-संबंधी की आवाज में पैसे के लिए फोन आए तो एक बार खुद फोन करके कंफर्म कर लें। साथ ही साइबर फ्र ॉड के शिकार होने पर हेल्पलाइन 1930 पर शिकायत करें।
रोहित सजवाण, एसएसपी

Posted By: Inextlive