सावधान! सरकारी कर्मचारियों को ChatGPT और DeepSeek के इस्तेमाल पर लगी रोक, जानें क्या है वजह

- Advertisement -



<p style="text-align: justify;"><strong>AI Tools:</strong> भारत के वित्त मंत्रालय ने एक आदेश जारी कर आधिकारिक सरकारी उपकरणों पर AI टूल्स और एप्लिकेशन, जैसे ChatGPT और DeepSeek, के उपयोग पर प्रतिबंध लगा दिया है. 29 जनवरी 2025 को जारी किए गए इस सर्कुलर का उद्देश्य संवेदनशील सरकारी डेटा को संभावित साइबर खतरों से बचाना है.</p>
<p style="text-align: justify;"><strong>सरकार ने क्यों लगाया AI टूल्स पर बैन?</strong></p>
<p style="text-align: justify;">यह आदेश संयुक्त सचिव प्रदीप कुमार सिंह द्वारा हस्ताक्षरित है और इसमें कहा गया है कि AI-आधारित एप्लिकेशन सरकारी सिस्टम में सुरक्षा जोखिम पैदा कर सकते हैं. इसके मद्देनजर, मंत्रालय ने सभी कर्मचारियों को आधिकारिक उपकरणों पर ऐसे टूल्स का उपयोग करने से बचने की सलाह दी है. यह निर्देश वित्त सचिव की मंजूरी के बाद राजस्व, आर्थिक मामलों, व्यय, सार्वजनिक उद्यम, DIPAM और वित्तीय सेवाओं जैसे प्रमुख सरकारी विभागों को भेजा गया है.</p>
<p style="text-align: justify;"><strong>AI टूल्स को प्रतिबंधित करने की वैश्विक प्रवृत्ति</strong></p>
<p style="text-align: justify;">AI टूल्स को लेकर दुनिया भर में सुरक्षा चिंताएं बढ़ रही हैं. कई सरकारें और निजी कंपनियां संवेदनशील डेटा की सुरक्षा के लिए AI टूल्स के उपयोग को सीमित कर रही हैं. AI मॉडल, जैसे ChatGPT, यूजर डेटा को एक्सटर्नल सर्वर पर प्रोसेस करते हैं, जिससे डेटा लीक और अनधिकृत एक्सेस का खतरा रहता है. कई वैश्विक कंपनियों ने भी AI टूल्स के उपयोग पर प्रतिबंध लगाया है ताकि गोपनीय डेटा सुरक्षित रह सके.</p>
<p style="text-align: justify;"><strong>क्या यह प्रतिबंध निजी उपकरणों पर भी लागू होगा?</strong></p>
<p style="text-align: justify;">सरकार के इस आदेश में यह स्पष्ट नहीं किया गया है कि क्या कर्मचारी अपने निजी उपकरणों पर AI टूल्स का उपयोग कर सकते हैं. हालांकि, यह कदम संकेत देता है कि सरकार AI के प्रति सतर्क रुख अपनाते हुए डेटा सुरक्षा को प्राथमिकता दे रही है.</p>
<p style="text-align: justify;">भविष्य में सरकार AI उपयोग के लिए कोई स्पष्ट नीति बना सकती है या नहीं, यह अभी अनिश्चित है. फिलहाल, वित्त मंत्रालय के कर्मचारियों को अपने आधिकारिक कार्यों के लिए पारंपरिक तरीकों पर निर्भर रहना होगा.</p>
<p style="text-align: justify;"><strong>AI टूल्स पर प्रतिबंध लगाने की मुख्य वजहें</strong></p>
<p style="text-align: justify;"><strong>डेटा लीक का खतरा</strong></p>
<p style="text-align: justify;">AI टूल्स जैसे ChatGPT और DeepSeek यूजर द्वारा इनपुट किए गए डेटा को बाहरी सर्वर पर प्रोसेस करते हैं. यदि सरकारी कर्मचारी संवेदनशील डेटा इन टूल्स पर दर्ज करते हैं, तो वह स्टोर या एक्सेस किया जा सकता है, और दुरुपयोग की संभावना हो सकती है. सरकारी विभाग गोपनीय वित्तीय डेटा, नीति ड्राफ्ट और आंतरिक संचार संभालते हैं. अनजाने में भी डेटा लीक होना गंभीर सुरक्षा जोखिम पैदा कर सकता है.</p>
<p style="text-align: justify;"><strong>AI मॉडल पर नियंत्रण की कमी</strong></p>
<p style="text-align: justify;">सरकार पारंपरिक सॉफ़्टवेयर पर नियंत्रण रख सकती है, लेकिन AI टूल्स क्लाउड-बेस्ड होते हैं और निजी कंपनियों के स्वामित्व में होते हैं. उदाहरण के लिए, ChatGPT का मालिक OpenAI है और सरकार के पास यह जानने का कोई तरीका नहीं है कि वह डेटा को कैसे प्रोसेस और स्टोर करता है. इससे विदेशी हस्तक्षेप और साइबर हमलों का खतरा बढ़ सकता है.</p>
<p style="text-align: justify;"><strong>डेटा संरक्षण कानूनों के अनुरूपता</strong></p>
<p style="text-align: justify;">भारत डिजिटल पर्सनल डेटा प्रोटेक्शन (DPDP) एक्ट, 2023 जैसे सख्त डेटा गोपनीयता कानूनों पर काम कर रहा है. AI टूल्स के बिना नियमों के इस्तेमाल से डेटा सुरक्षा नीति का उल्लंघन हो सकता है. इससे सरकारी सिस्टम साइबर खतरों के प्रति असुरक्षित हो सकते हैं.</p>
<p style="text-align: justify;">सरकार का यह कदम सरकारी डेटा की सुरक्षा को मजबूत करने के लिए उठाया गया है. हालांकि, यह स्पष्ट नहीं है कि भविष्य में AI टूल्स के उपयोग के लिए कोई विनियमित नीति बनाई जाएगी या नहीं. फिलहाल, वित्त मंत्रालय के अधिकारियों को पारंपरिक तरीकों से काम करने की सलाह दी गई है, जिससे संवेदनशील डेटा की सुरक्षा सुनिश्चित हो सके.</p>
<p style="text-align: justify;"><strong>यह भी पढ़ें:</strong></p>
<p style="text-align: justify;"><strong><a href=" कम पैसों के प्लान में ज्यादा डेटा दे रही यह कंपनी, बाकी बेनेफिट भी लगभग सेम, तुरंत करें रिचार्ज</a></strong></p>

- Advertisement -

Latest articles

Related articles

error: Content is protected !!