विदेशी AI टूल्स से खतरा? एक क्लिक में आपका फोन हो सकता है खुली किताब, सरकारों ने जारी किया बड़ा अलर्ट
आज, दुनिया भर की सरकारें प्रशासन, स्वास्थ्य सेवाओं और सार्वजनिक सुविधाओं को बेहतर बनाने के लिए तेज़ी से आर्टिफिशियल इंटेलिजेंस (AI) अपना रही हैं। जहाँ यह तकनीक निस्संदेह कामकाज को सुव्यवस्थित और सरल बनाती है, वहीं यह एक अहम सवाल भी खड़ा करती है: नागरिकों के डेटा पर असली नियंत्रण आखिर किसके पास है—खासकर तब, जब ये सिस्टम विदेशी कंपनियों द्वारा विकसित किए जाते हैं?
AI सिस्टम किस तरह के डेटा का इस्तेमाल करते हैं?
आधुनिक AI प्लेटफ़ॉर्म कई तरह के डेटा को इकट्ठा करके काम करते हैं। इसमें स्वास्थ्य रिकॉर्ड, बैंकिंग लेन-देन, लोकेशन डेटा, पहचान से जुड़ी जानकारी और यहाँ तक कि व्यवहार के पैटर्न भी शामिल होते हैं। भारत जैसे देश में—जहाँ आधार और UPI जैसे डिजिटल सिस्टम का बड़े पैमाने पर इस्तेमाल होता है—डेटा की मात्रा बहुत ज़्यादा हो गई है। जानकारी के इन अलग-अलग टुकड़ों को मिलाकर, AI किसी व्यक्ति की एक विस्तृत प्रोफ़ाइल बना सकता है; जहाँ यह नीति-निर्माण के लिए बहुत कीमती साबित होता है, वहीं यह निजता (privacy) को लेकर एक बड़ी चिंता के रूप में भी उभरता है।
विदेशी प्लेटफ़ॉर्म और डेटा पर नियंत्रण
हालात तब और भी पेचीदा हो जाते हैं, जब सरकारें विदेशी AI प्लेटफ़ॉर्म पर निर्भर करती हैं। भले ही डेटा देश के भीतर ही स्टोर किया जाता हो, लेकिन उसे प्रोसेस करने के लिए इस्तेमाल किया जाने वाला सॉफ़्टवेयर—और उससे जुड़े ऑपरेशनल प्रोटोकॉल—अक्सर बाहरी संस्थाओं के नियंत्रण में रहते हैं। उदाहरण के लिए, CLOUD Act जैसा कानून विदेशी सरकारों को कुछ खास परिस्थितियों में विदेशी कंपनियों से डेटा मांगने की अनुमति देता है। इसका मतलब है कि भारतीय नागरिकों का डेटा, परोक्ष रूप से, दूसरे देशों की पहुँच में आ सकता है।
भारत का डेटा संरक्षण कानून क्या कहता है?
इस चुनौती से निपटने के लिए, भारत ने 'डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023' लागू किया है। यह कानून डेटा को इकट्ठा करने, इस्तेमाल करने और सुरक्षित रखने के प्रोटोकॉल तय करता है। यह नागरिकों को उनके डेटा के संबंध में कुछ खास अधिकार भी देता है—जैसे कि अपनी जानकारी तक पहुँचने, उसे ठीक करने या उसे हटाने का अनुरोध करने का अधिकार। हालाँकि, राष्ट्रीय सुरक्षा से जुड़े मामलों में, सरकार को कुछ छूट दी गई है, जिसका मतलब है कि हर बार पूरी पारदर्शिता संभव नहीं होती।
AI के बढ़ते इस्तेमाल से पैदा होने वाले नए जोखिम
AI सिस्टम के सबसे बड़े प्रभावों में से एक निगरानी (surveillance) के बढ़ते दायरे के रूप में सामने आ रहा है। जब अलग-अलग डेटा सेट को एक साथ मिलाया जाता है, तो किसी व्यक्ति की गतिविधियों और व्यवहार के पैटर्न को ट्रैक करना काफी आसान हो जाता है। जहाँ यह तकनीक धोखाधड़ी का पता लगाने या स्वास्थ्य सेवाओं को बेहतर बनाने में मददगार हो सकती है, वहीं यह इस जोखिम को भी बढ़ाती है कि लोगों का आकलन—उनकी जानकारी के बिना—जोखिम प्रोफ़ाइल के आधार पर किया जाए। इसके अलावा, इन सिस्टम के अंदरूनी कामकाज अक्सर पूरी तरह से पारदर्शी नहीं होते, जिससे जवाबदेही को लेकर सवाल उठते हैं।
डेटा संप्रभुता एक बड़ा मुद्दा क्यों बनती जा रही है
डेटा संप्रभुता का मतलब है कि किसी देश का अपने नागरिकों से जुड़े डेटा पर पूरा नियंत्रण होना चाहिए। भारत दुनिया के सबसे बड़े डेटा उत्पादकों में से एक बनकर उभरा है; हालाँकि, यह अपने तकनीकी बुनियादी ढांचे के लिए अभी भी विदेशी कंपनियों पर निर्भर है। यही विरोधाभास सबसे बड़ी चुनौती है: एक तरफ, आधुनिक तकनीक के फायदों का लाभ उठाना ज़रूरी है, तो दूसरी तरफ, अपने डेटा की सुरक्षा और उस पर नियंत्रण बनाए रखना भी उतना ही महत्वपूर्ण है।
इसका आम नागरिक पर क्या असर पड़ता है?
हर बार जब आप कोई डिजिटल पेमेंट करते हैं, किसी सरकारी योजना का लाभ उठाते हैं, या ऑनलाइन स्वास्थ्य सेवाओं का इस्तेमाल करते हैं, तो आप नया डेटा तैयार कर रहे होते हैं। यह डेटा तय कर सकता है कि आपको कौन सी सेवाएँ मिलेंगी, आप किन योजनाओं के लिए पात्र हैं, और सिस्टम आपको किस नज़र से देखता है। इसलिए, यह समझना बेहद ज़रूरी हो जाता है कि आपके डेटा का इस्तेमाल कैसे—और किसके द्वारा—किया जा रहा है।
आगे का रास्ता और बड़ा सवाल
जैसे-जैसे AI का दायरा बढ़ता जा रहा है, मूल सवाल अब यह नहीं रहा कि डेटा का इस्तेमाल हो रहा है या नहीं, बल्कि यह है कि इसका इस्तेमाल किन शर्तों पर—और किसके नियंत्रण में—किया जा रहा है। भारत जैसे एक बड़े डिजिटल राष्ट्र के लिए, यह निर्धारण अत्यंत महत्वपूर्ण है, क्योंकि आज लिए गए निर्णय उसके नागरिकों की निजता, सुरक्षा और अधिकारों के भविष्य की दिशा तय करेंगे।

