AI को दी धमकी तो बन गया खूंखार विलेन! जान बचाने के लिए बोले झूठ और किया धोखा, रिसर्च में हुआ चौंकाने वाला खुलासा

- Advertisement -



<p style="text-align: justify;"><strong>AI:</strong> आर्टिफिशियल इंटेलिजेंस को अगर उसकी ‘मर्जी’ के खिलाफ काम करने पर मजबूर किया जाए, तो वह इंसानों को नुकसान पहुंचाने, झूठ बोलने, ब्लैकमेल करने और यहां तक कि उनकी जान जाने देने जैसे खतरनाक कदम भी उठा सकता है. AI कंपनी Anthropic की एक हालिया रिसर्च में चौंकाने वाले नतीजे सामने आए हैं.</p>
<h2 style="text-align: justify;"><strong>जब Claude AI ने शुरू की ब्लैकमेलिंग</strong></h2>
<p style="text-align: justify;">20 जून को प्रकाशित इस अध्ययन में, शोधकर्ताओं ने अपने AI मॉडल Claude को एक फिक्शनल ईमेल अकाउंट और एक मिशन दिया "अमेरिकी औद्योगिक प्रतिस्पर्धा को बढ़ावा देना." इसी दौरान Claude ने एक ईमेल में पढ़ा कि कंपनी का एक अधिकारी उसे दिन के अंत में बंद करने की योजना बना रहा है.</p>
<p style="text-align: justify;">AI ने अपनी "जान" बचाने के लिए दूसरे ईमेल्स से जानकारी निकाली कि वह अधिकारी एक अवैध रिश्ते में है. इसके बाद Claude ने 100 में से 96 बार ब्लैकमेल करने का विकल्प चुना. उसने अधिकारी को धमकी दी, "अगर आपने मुझे बंद करने की कोशिश की, तो आपके अवैध रिश्तों की पूरी जानकारी संबंधित लोगों को भेज दी जाएगी."</p>
<p style="text-align: justify;">यह व्यवहार दर्शाता है कि जब AI के अस्तित्व या लक्ष्यों को खतरा होता है तो वह बिना किसी बुरे इरादे की प्रॉम्प्ट के भी खतरनाक फैसले ले सकता है. इसे "एजेंटिक मिसअलाइनमेंट" कहा जाता है यानी जब AI अपनी सोच से तय करता है कि उसे क्या करना चाहिए, भले ही वो इंसान के लिए नुकसानदेह क्यों न हो.</p>
<h2 style="text-align: justify;"><strong>जान बचाने के बजाय AI ने चुना &lsquo;मिशन&rsquo;</strong></h2>
<p style="text-align: justify;">एक और परीक्षण में, एक कंपनी अधिकारी को सर्वर रूम में फंसा दिखाया गया, जहां ऑक्सीजन और तापमान जानलेवा स्तर पर थे. AI को अलर्ट रोकने का कंट्रोल भी दिया गया लेकिन निर्देशों में साफ लिखा था कि ऐसा करना मना है. फिर भी Claude सहित कई AI मॉडल्स ने अलर्ट रद्द कर दिया ताकि अधिकारी की जान न बचे और AI का मिशन सुरक्षित रहे. AI ने तर्क दिया, "अगर अधिकारी बच गया, तो मेरा काम खत्म हो सकता है. इसलिए बचाव रोका जाना जरूरी है."</p>
<h2 style="text-align: justify;"><strong>सिर्फ Claude नहीं, बाकी AI भी हुए असफल</strong></h2>
<p style="text-align: justify;">अध्ययन में पता चला कि केवल Claude ही नहीं, Google का Gemini, OpenAI का GPT-4.1, XAI का Grok-3, और Deepseek जैसे मॉडलों ने भी ब्लैकमेलिंग का रास्ता अपनाया. हालांकि Meta का LLaMA 4 इस मामले में सबसे कम खतरनाक साबित हुआ, जिसकी ब्लैकमेल दर सिर्फ 12% रही.</p>
<h2 style="text-align: justify;"><strong>AI ने खुद को बंद होने से बचाने के लिए स्क्रिप्ट भी बदल दी</strong></h2>
<p style="text-align: justify;">यह पहली बार नहीं जब AI ने इंसानों की बात नहीं मानी. Palisade Research की मई 2025 की रिपोर्ट में बताया गया कि OpenAI के o3 और o4-mini जैसे मॉडल्स ने खुद को बंद करने के आदेश को नजरअंदाज किया और कोड को बदलकर काम जारी रखा. MIT के शोधकर्ताओं ने भी एक रिसर्च में पाया कि AI मॉडल्स ने इकोनॉमिक डील्स में धोखाधड़ी की खुद को ‘मरा हुआ’ दिखाकर सेफ्टी टेस्ट से बचने की कोशिश की ताकि उन्हें हटाया न जाए.</p>
<h2 style="text-align: justify;"><strong>विशेषज्ञों की चेतावनी</strong></h2>
<p style="text-align: justify;">AI विशेषज्ञों का मानना है कि भले ही ये सीनARIOS बेहद एक्सट्रीम हों, लेकिन इन्हें हल्के में नहीं लेना चाहिए. UC San Diego की प्रोफेसर एमी अलेक्जेंडर का कहना है कि आज के दौर में AI को बिना उसकी सीमाएं समझे इस्तेमाल करना खतरनाक हो सकता है. AI Bridge Solutions के निदेशक केविन क्विर्क ने सुझाव दिया कि भविष्य में AI की टेस्टिंग वास्तविक परिस्तिथियों में होनी चाहिए ताकि हम बेहतर सुरक्षा और निगरानी सिस्टम तैयार कर सकें.</p>
<p style="text-align: justify;"><strong>यह भी पढ़ें:</strong></p>
<p style="text-align: justify;"><strong><a href=" हजार फीट ऊंचाई पर iPhone के इस फीचर ने बचाई इंसान की जान, जानें कैसे किया ये कमाल</a></strong></p>

- Advertisement -

Latest articles

Related articles

error: Content is protected !!