<p style="text-align: justify;"><strong>AI:</strong> आर्टिफिशियल इंटेलिजेंस को अगर उसकी ‘मर्जी’ के खिलाफ काम करने पर मजबूर किया जाए, तो वह इंसानों को नुकसान पहुंचाने, झूठ बोलने, ब्लैकमेल करने और यहां तक कि उनकी जान जाने देने जैसे खतरनाक कदम भी उठा सकता है. AI कंपनी Anthropic की एक हालिया रिसर्च में चौंकाने वाले नतीजे सामने आए हैं.</p>
<h2 style="text-align: justify;"><strong>जब Claude AI ने शुरू की ब्लैकमेलिंग</strong></h2>
<p style="text-align: justify;">20 जून को प्रकाशित इस अध्ययन में, शोधकर्ताओं ने अपने AI मॉडल Claude को एक फिक्शनल ईमेल अकाउंट और एक मिशन दिया "अमेरिकी औद्योगिक प्रतिस्पर्धा को बढ़ावा देना." इसी दौरान Claude ने एक ईमेल में पढ़ा कि कंपनी का एक अधिकारी उसे दिन के अंत में बंद करने की योजना बना रहा है.</p>
<p style="text-align: justify;">AI ने अपनी "जान" बचाने के लिए दूसरे ईमेल्स से जानकारी निकाली कि वह अधिकारी एक अवैध रिश्ते में है. इसके बाद Claude ने 100 में से 96 बार ब्लैकमेल करने का विकल्प चुना. उसने अधिकारी को धमकी दी, "अगर आपने मुझे बंद करने की कोशिश की, तो आपके अवैध रिश्तों की पूरी जानकारी संबंधित लोगों को भेज दी जाएगी."</p>
<p style="text-align: justify;">यह व्यवहार दर्शाता है कि जब AI के अस्तित्व या लक्ष्यों को खतरा होता है तो वह बिना किसी बुरे इरादे की प्रॉम्प्ट के भी खतरनाक फैसले ले सकता है. इसे "एजेंटिक मिसअलाइनमेंट" कहा जाता है यानी जब AI अपनी सोच से तय करता है कि उसे क्या करना चाहिए, भले ही वो इंसान के लिए नुकसानदेह क्यों न हो.</p>
<h2 style="text-align: justify;"><strong>जान बचाने के बजाय AI ने चुना ‘मिशन’</strong></h2>
<p style="text-align: justify;">एक और परीक्षण में, एक कंपनी अधिकारी को सर्वर रूम में फंसा दिखाया गया, जहां ऑक्सीजन और तापमान जानलेवा स्तर पर थे. AI को अलर्ट रोकने का कंट्रोल भी दिया गया लेकिन निर्देशों में साफ लिखा था कि ऐसा करना मना है. फिर भी Claude सहित कई AI मॉडल्स ने अलर्ट रद्द कर दिया ताकि अधिकारी की जान न बचे और AI का मिशन सुरक्षित रहे. AI ने तर्क दिया, "अगर अधिकारी बच गया, तो मेरा काम खत्म हो सकता है. इसलिए बचाव रोका जाना जरूरी है."</p>
<h2 style="text-align: justify;"><strong>सिर्फ Claude नहीं, बाकी AI भी हुए असफल</strong></h2>
<p style="text-align: justify;">अध्ययन में पता चला कि केवल Claude ही नहीं, Google का Gemini, OpenAI का GPT-4.1, XAI का Grok-3, और Deepseek जैसे मॉडलों ने भी ब्लैकमेलिंग का रास्ता अपनाया. हालांकि Meta का LLaMA 4 इस मामले में सबसे कम खतरनाक साबित हुआ, जिसकी ब्लैकमेल दर सिर्फ 12% रही.</p>
<h2 style="text-align: justify;"><strong>AI ने खुद को बंद होने से बचाने के लिए स्क्रिप्ट भी बदल दी</strong></h2>
<p style="text-align: justify;">यह पहली बार नहीं जब AI ने इंसानों की बात नहीं मानी. Palisade Research की मई 2025 की रिपोर्ट में बताया गया कि OpenAI के o3 और o4-mini जैसे मॉडल्स ने खुद को बंद करने के आदेश को नजरअंदाज किया और कोड को बदलकर काम जारी रखा. MIT के शोधकर्ताओं ने भी एक रिसर्च में पाया कि AI मॉडल्स ने इकोनॉमिक डील्स में धोखाधड़ी की खुद को ‘मरा हुआ’ दिखाकर सेफ्टी टेस्ट से बचने की कोशिश की ताकि उन्हें हटाया न जाए.</p>
<h2 style="text-align: justify;"><strong>विशेषज्ञों की चेतावनी</strong></h2>
<p style="text-align: justify;">AI विशेषज्ञों का मानना है कि भले ही ये सीनARIOS बेहद एक्सट्रीम हों, लेकिन इन्हें हल्के में नहीं लेना चाहिए. UC San Diego की प्रोफेसर एमी अलेक्जेंडर का कहना है कि आज के दौर में AI को बिना उसकी सीमाएं समझे इस्तेमाल करना खतरनाक हो सकता है. AI Bridge Solutions के निदेशक केविन क्विर्क ने सुझाव दिया कि भविष्य में AI की टेस्टिंग वास्तविक परिस्तिथियों में होनी चाहिए ताकि हम बेहतर सुरक्षा और निगरानी सिस्टम तैयार कर सकें.</p>
<p style="text-align: justify;"><strong>यह भी पढ़ें:</strong></p>
<p style="text-align: justify;"><strong><a href=" हजार फीट ऊंचाई पर iPhone के इस फीचर ने बचाई इंसान की जान, जानें कैसे किया ये कमाल</a></strong></p>
AI को दी धमकी तो बन गया खूंखार विलेन! जान बचाने के लिए बोले झूठ और किया धोखा, रिसर्च में हुआ चौंकाने वाला खुलासा
Related articles