क्या डिजिटल स्पेस हमारे बच्चों के लिए सुरक्षित हैं? शायद, सबसे ज्यादा सतर्क व्यक्ति को भी इसका अंदाज़ा नहीं है। अगर इस पर चल रही चर्चाओं को देखा जाए, तो ऐसा लगता है कि हमारे डिजिटल जीवन की सुरक्षा के लिए कुछ खास नहीं किया जा रहा है।
जब बच्चे अपने असाइनमेंट्स को AI टूल्स में डालते हैं, तो वे ऐसी प्रणालियों को डेटा दे रहे होते हैं जिनका उन्हें खुद भी पूरी तरह से समझ नहीं है। यह सवाल तब उठे जब कुछ 12 साल के बच्चों के बीच हुई बातचीत सुनी गई। वे इस दुविधा में थे कि क्या आर्टिफिशियल इंटेलिजेंस (AI) टूल्स जैसे कि ChatGPT का इस्तेमाल असाइनमेंट्स पूरा करने के लिए करना ठीक है? आखिरकार, इससे काम जल्दी हो जाता है और उनके पास काफी समय भी बचता है।
इस समूह के एक लड़के ने बताया कि उन्होंने 40:40:20 का एक फ़ॉर्मूला तैयार किया है। इसका मतलब है कि ChatGPT का इस्तेमाल असाइनमेंट के 40% हिस्से में किया जा सकता है ताकि उसका ढांचा और मुख्य तर्क तैयार हो सकें। अगले 40% में गूगल या विकिपीडिया जैसी अन्य स्रोतों से जानकारी निकाली जा सकती है। आखिरी 20% हिस्सा “क्रिएटिव” काम के लिए रखा जाता है, जैसे कि लेखन। यह फ़ॉर्मूला बच्चों की सहमति से तैयार हुआ। बेशक, यह विचारशील है! लेकिन इससे जुड़ी कई समस्याएं भी हैं।
जब सबसे कम समय “क्रिएटिव पार्ट” पर दिया जा रहा है, तो क्या इससे मौलिक विचार और रचनात्मकता खत्म हो रही है? और अगर उनके काम का एक बड़ा हिस्सा किसी एल्गोरिदम द्वारा बनाया या ढांचा तैयार किया गया है, तो क्या वे वास्तव में उस सामग्री के साथ जुड़ रहे हैं? क्या यह उनकी क्रिटिकल थिंकिंग और प्रॉब्लम-सॉल्विंग स्किल्स पर दीर्घकालिक प्रभाव डाल सकता है? शुरुआती शोध से पता चलता है कि अत्यधिक निर्भरता से मानसिक संलग्नता और रचनात्मकता में कमी आ सकती है।
इसके बाद, बौद्धिक संपदा अधिकारों का सवाल आता है। AI द्वारा उत्पन्न सामग्री का मालिक कौन होता है? अगर छात्र ऐसे कार्यों को अपना बताकर जमा करते हैं, तो क्या यह साहित्यिक चोरी (प्लेजरिज्म) कहलाएगा? स्कूलों को शायद अपनी शैक्षणिक ईमानदारी की नीतियों पर पुनर्विचार करना पड़ेगा ताकि इस नई चुनौती का सामना किया जा सके। यूरोपीय संघ के देश पहले से ही इस पर गहराई से काम कर रहे हैं। उन्होंने इस खतरे को पहचाना है और दिशा-निर्देश तैयार कर रहे हैं।
ये सभी 12 साल के बच्चे तकनीक तक पहुंच रखते हैं। लेकिन भारत एक विशाल देश है, और यहां हर बच्चे के पास ऐसे उपकरणों तक समान पहुंच नहीं है। जिनके पास यह सुविधा नहीं है, वे पीछे छूट सकते हैं। हम यह कैसे सुनिश्चित करेंगे कि तकनीक से सीखने में सुधार हो और यह नई असमानताएं पैदा न करे? यह सवाल कई मंचों पर उठ चुका है, और यह समस्या मौजूद होने का एहसास भी है।
अब बात करें गोपनीयता की। जब बच्चे ChatGPT जैसे टूल्स का इस्तेमाल करते हैं, तो वे अनजाने में डेटा साझा कर रहे होते हैं, ज्यादातर समय बिना यह समझे कि इसके क्या नतीजे हो सकते हैं। क्या वे अनजाने में अपनी व्यक्तिगत जानकारी दे रहे हैं? और क्या ये प्लेटफ़ॉर्म इस संवेदनशील डेटा को जिम्मेदारी से संभालने के लिए तैयार हैं? एक सरकारी सलाहकार अपनी बात रखते हुए कहते हैं, “भारत में, इस मुद्दे पर काफी चर्चा तो होती है, लेकिन वास्तविक कदम? शायद ही कोई उठाया गया हो। ऐसा लगता है कि हमारे बच्चे बिना किसी सुरक्षा के इस अज्ञात डिजिटल दुनिया में भटक रहे हैं।”
गोपनीयता पर बात करते हुए, और सिर्फ बच्चों की नहीं, बेंगलुरु के एक कंसल्टेंट, मनोज नायर, जो ONDC से जुड़े रहे हैं, अपनी नाराजगी नहीं छिपाते। “जहां तक सुप्रीम कोर्ट ने निजता के अधिकार को जीवन और स्वतंत्रता के अधिकार के बराबर माना है, सबसे बड़ा उल्लंघनकर्ता राज्य ही रहा है, और डेटा गोपनीयता इस मामले में कोई अपवाद नहीं होगी।” अगर यह सच है, तो एक तीसरी और सबसे बड़ी समस्या है – पारदर्शिता।
AI मॉडल अक्सर “ब्लैक बॉक्स” की तरह काम करते हैं, जहां इनपुट तो दिया जाता है, लेकिन बीच में क्या होता है यह किसी को नहीं पता। खासकर जब नाबालिगों का मामला हो, तो यह स्थिति और भी चिंताजनक हो जाती है। माता-पिता और शिक्षक कैसे सुनिश्चित कर सकते हैं कि उत्पन्न की गई सामग्री उपयुक्त है और डेटा का गलत उपयोग नहीं हो रहा है? जब राज्य ही सबसे बड़ा दोषी हो, तो हम कैसे उम्मीद कर सकते हैं कि चीजें सही होंगी?