सोशल मीडिया का क्रेज लगातार लोगों में बढ़ता जा रहा है। लोगों में फोटो और वीडियो अपलोड करने का क्रेज तेजी से बढ़ा है। कोई रील्स बनाकर डालता है, कोई अपने बच्चे या माता-पिता का वीडियो डालता है। पति-पत्नी, प्रेमी-प्रेमिका और प्रेमी-प्रेमिका अपनी खुशियों को सोशल मीडिया पर साझा करते रहते हैं, लेकिन अब ये बहुत खतरनाक हो गया है। आवाजें आर्टिफिशियल इंटेलिजेंस से चुराई जाती हैं।
AL से चुराई जा रही है आवाज
ऐसा हो सकता है कि आपके पास फोन आया और कोई व्यक्ति आपको बताया कि वह आपका दोस्त, पति या बेटा है। आप कहते हैं कि आप सिर्फ अपनी आवाज पहचान लेंगे, लेकिन ऐसा नहीं है क्योंकि वह आवाज आपके पति, बेटे या दोस्त की होगी, जिसे AI से चोरी करके आपको ठगने के लिए इस्तेमाल किया गया होगा।
आपकी आवाज चुराकर कोई आपको चुना लगा देगा
पहले कनाडा की घटना को समझिए, जहां एक बुजुर्ग दंपत्ति की आवाज चुराकर उन्हें चूना लगाया गया था। बुजुर्ग दंपत्ति को फोन मिला। फोन पर उनके पोते ब्रैंडन पार्किंग की आवाज आई, जो दूसरे शहर में रहता था। ब्रेंडन ने अपने दादा-दादी से कहा कि वह परेशान था। मुझे जेल से बाहर निकलने के लिए धन चाहिए। उसने बताया कि वह अपने वकील का फोन नंबर ले रहा है। बाद में उसके अधिवक्ता ने कहा कि आप 18 लाख रुपये ट्रांसफर करें।
बुजुर्ग दंपत्ति के साथ हुआ फ्रॉड
पहले कनाडा की घटना को समझिए, जहां एक बुजुर्ग दंपत्ति की आवाज चुराकर उन्हें चूना लगाया गया था। बुजुर्ग दंपत्ति को फोन मिला। फोन पर उनके पोते ब्रैंडन पार्किंग की आवाज आई, जो दूसरे शहर में रहता था। ब्रेंडन ने अपने दादा-दादी से कहा कि वह परेशान था। मुझे जेल से बाहर निकलने के लिए धन चाहिए। उसने बताया कि वह अपने वकील का फोन नंबर ले रहा है। बाद में उसके अधिवक्ता ने कहा कि आप 18 लाख रुपये ट्रांसफर करें।
पोते की आवाज से किया फोन
उनके पोते के वीडियो यूट्यूब पर उपलब्ध थे। आर्टिफिशल इंटेलिजेंट की मदद से ब्रेंनडन की आवाज उन वीडियो से हटाकर हुबहू आवाज बनाई गई। अपने पोते की आवाज सुनकर खुद उसके दादा-दादी भी शक नहीं कर पाए और पैसे दे दिए।
सोशल साइट्स से ली जा रही है आवाज
वास्तव में, आपके वीडियो जो आप अपने फन के लिए फेसबुक, इंस्टाग्राम और यूट्यूब पर अपलोड कर रहे हैं, उनकी मदद से आपकी आवाज को कॉपी करके आपके रिश्तेदारों को फोन करके आपसे धन की मांग की जाती है। हमारे देश में भी ऐसे धोखाधड़ी के मामले सामने आ चुके हैं। आवाज में कोई बदलाव नहीं होने से कोई भी संदेह नहीं कर रहा।
भारत में भी हुई है ऐसी घटना
छत्तीसगढ़ में भी ऐसा ही हुआ। जांजगीर-चांपा में रहने वाले शिक्षक गजेंद्र सिंह चौहान को ठगों ने उनके साथी शिक्षक साहू से फोन किया। इमरजेंसी बताकर 35 हजार रुपए खाते में डाल दिए। आवाज साहू की नहीं थी, यह गजेन्द्र सिंह को पता नहीं था। वह उनके दोस्त की आवाज लगती थी।
Deepfake तकनीक से बनाया जा शिकार
आर्टिफिशियल इंटेलिजेंस एक बनावटी बौद्धिक क्षमता है। इसमें डीपफेक तकनीक शामिल है। इस तकनीक से ही किसी व्यक्ति की आवाज, फोटो या वीडियो का सैंपल लेकर क्लोनिंग की जा सकती है। इस तकनीक से निर्मित ये ऑडियो-वीडियो इतने असली हैं कि आप अपनी आवाज सुनकर भ्रम में पड़ जाएंगे। इस तरह की ठगी के कई केस देश भर में दर्ज हो चुके हैं। इस तरह के फ्रॉड पहले बाहरी देशों में ही होते थे, लेकिन अब यहां भी होते हैं। यही कारण है कि आप अपने वीडियो को फेसबुक या किसी अन्य साइट पर अपलोड करते समय सावधान रहें।