जैसे-जैसे आर्टिफिशियल इंटेलिजेंस (AI) का बड़े पैमाने पर उपयोग हो रहा है, OpenAI ने रिपोर्ट किया है कि साइबर अपराधी इसका गलत इस्तेमाल कर रहे हैं। AI कंपनी द्वारा हाल ही में प्रकाशित एक रिपोर्ट के अनुसार, ChatGPT का उपयोग धोखाधड़ी गतिविधियों में सहायता करने के लिए किया जा रहा है। आइए देखें कि कैसे ChatGPT आपके लिए खतरा बन सकता है।
ChatGPT: छिपे हुए खतरे का रूप
OpenAI ने “इन्फ्लुएंस एंड साइबर ऑपरेशन्स: एन अपडेट” नामक एक रिपोर्ट जारी की है, जिसमें ChatGPT के नकारात्मक उपयोग पर प्रकाश डाला गया है। इसमें कहा गया है कि साइबर अपराधी ChatGPT का उपयोग धोखाधड़ी से संबंधित कोडिंग के लिए कर रहे हैं। इसका उपयोग मैलवेयर विकसित करने, सोशल इंजीनियरिंग हमलों को अंजाम देने और समझौता के बाद की गतिविधियों में किया जा रहा है। ChatGPT का इस प्रकार के धोखाधड़ी में इस्तेमाल किया जा रहा है ताकि आपकी व्यक्तिगत जानकारी तक पहुंच बनाई जा सके। इसके अलावा, AI संचालित ChatGPT का उपयोग डीप फेक बनाने में भी किया जा रहा है। उदाहरण के लिए, यह किसी ऐसे व्यक्ति की नकली प्रोफ़ाइल बना सकता है जिसे आप जानते हैं, और फिर आपसे धन की मांग कर सकता है, जिससे आपको मनी लॉन्ड्रिंग जैसी गतिविधियों में फंसाया जा सकता है।
OpenAI ने 2024 की शुरुआत से अब तक ChatGPT का उपयोग करके लगभग 20 साइबर धोखाधड़ी ऑपरेशन्स का सामना किया है। इन मामलों में ज्यादातर सोशल इंजीनियरिंग और ईमेल फ़िशिंग शामिल थे। AI संचालित हमलों का पहला मामला अप्रैल 2024 में सामने आया था, जब साइबर सुरक्षा कंपनी Proofpoint ने TA547 नामक चीनी साइबर जासूसी समूह को एक AI संचालित पॉवरशेल लोडर का उपयोग करते हुए पहचाना, जिसे “स्कली स्पाइडर” के नाम से भी जाना जाता है।
लेकिन सवाल यह है कि ChatGPT का दुरुपयोग कैसे हो रहा है? अपराधी ChatGPT की कोड जनरेशन क्षमताओं और नैचुरल लैंग्वेज प्रोसेसिंग (NLP) का उपयोग उन कार्यों को पूरा करने के लिए कर रहे हैं, जिनके लिए सामान्यतः विशेष तकनीकी ज्ञान की आवश्यकता होती है। ChatGPT का उपयोग पायथन स्क्रिप्ट्स और कस्टम बैश डेवलपमेंट में सहायता के लिए भी किया जा रहा है, जिससे ये धोखाधड़ी गतिविधियां फ्रॉड डिटेक्शन स्ट्रेटेजी से बच पाती हैं।
सुरक्षा की राह
पिछले कुछ वर्षों में हर संगठन ने आर्टिफिशियल इंटेलिजेंस (AI) को अपने कार्य ढांचे में शामिल किया है। बड़े से बड़े संस्थान से लेकर छोटे स्टार्टअप तक, सभी AI का उपयोग कर रहे हैं। हालांकि, इसके सकारात्मक उपयोग के बावजूद, AI का दुरुपयोग भी हो रहा है। ChatGPT सामग्री बनाने और विचार उत्पन्न करने में सहायक हो सकता है, लेकिन ऐसा लगता है कि इन विचारों का दुरुपयोग किया जा रहा है। इन विचारों का उपयोग अंततः आपको नुकसान पहुंचाने के लिए किया जा रहा है। तो आप खुद को कैसे सुरक्षित रख सकते हैं? नीचे कुछ सुरक्षा उपाय दिए गए हैं जो आपको अपने चारों ओर बुनने की आवश्यकता है:
- संदेहास्पद संदेशों का जवाब न दें। भले ही वह आपके सेव किए गए संपर्कों से हो, उत्तर देने से पहले हमेशा जांचें।
- अज्ञात नंबरों से आने वाली कॉल का जवाब न दें। कई मामलों में AI का उपयोग आपकी परिचित आवाजों की नकल करने के लिए किया गया है। इन कॉल्स से बचें। ऐसे कॉल्स को सत्यापित करने के लिए Truecaller इंस्टॉल करना हमेशा सलाह दी जाती है।
- AI और वास्तविक सामग्री में छोटे अंतर होते हैं। जब आपको डीपफेक संबंधित हमलों का संदेह हो, तो इन बदलावों पर ध्यान दें।
इनके अलावा, OpenAI ने ChatGPT के दुरुपयोग को रोकने के लिए कुछ पहल भी की हैं। बढ़ते खतरे का सामना करने के लिए उसने धोखाधड़ी से जुड़े खातों को बंद कर दिया है। इसके अतिरिक्त, उसने अपने साइबर सुरक्षा साझेदारों के साथ समझौते के संकेतकों (IOCs), जैसे हमले की विधियों और IP पते, को भी साझा किया है। साथ ही, OpenAI निगरानी ढांचे को और मजबूत करेगा।