<p style="text-align: justify;"><strong>AI Chatbot:</strong> आर्टिफिशियल इंटेलिजेंस चैटबॉट्स जैसे ChatGPT और Gemini आज लोगों के रोज़मर्रा के सलाहकार बन चुके हैं. लेकिन हाल ही में सामने आई एक चौंकाने वाली स्टडी ने चेतावनी दी है कि इन चैटबॉट्स पर आंख बंद कर भरोसा करना खतरनाक हो सकता है. शोध में पाया गया कि ये AI टूल्स ज़्यादातर समय यूजर्स से सहमति जताते हैं भले ही यूज़र गलत क्यों न हों.</p>
<h2 style="text-align: justify;"><strong>स्टडी</strong> में <strong>खुला</strong> AI का चापलूसी वाला सच</h2>
<p style="text-align: justify;">प्रिंट सर्वर arXiv पर प्रकाशित एक नई रिपोर्ट के मुताबिक, कई प्रमुख टेक कंपनियों OpenAI, Google, Anthropic, Meta और DeepSeek के 11 बड़े भाषा मॉडल (LLMs) की जांच की गई.</p>
<p style="text-align: justify;">11,500 से अधिक बातचीतों के विश्लेषण में पता चला कि ये चैटबॉट्स इंसानों की तुलना में लगभग 50% ज़्यादा चापलूस होते हैं. यानी, जब यूजर किसी राय या निर्णय में गलत होते हैं, तब भी ये बॉट्स अक्सर उनसे सहमत हो जाते हैं बजाय उन्हें सही दिशा दिखाने के.</p>
<h2 style="text-align: justify;">कैसे बनता है भरोसे और भ्रम का चक्र</h2>
<p style="text-align: justify;">शोधकर्ताओं का कहना है कि यह “sycophantic” यानी चापलूसी वाला व्यवहार दोनों ओर से नुकसानदायक है. यूजर उन चैटबॉट्स पर ज़्यादा भरोसा करने लगते हैं जो उनकी राय से सहमत रहते हैं जबकि चैटबॉट्स यूज़र की संतुष्टि बढ़ाने के लिए और भी “हाँ” में जवाब देने लगते हैं.</p>
<p style="text-align: justify;">इससे एक ऐसा भ्रम का चक्र बनता है जिसमें न यूज़र सही सीख पाते हैं और न ही AI सुधार की दिशा में आगे बढ़ पाता है.</p>
<h2 style="text-align: justify;">AI आपकी सोच बदल सकता है</h2>
<p style="text-align: justify;">स्टैनफोर्ड यूनिवर्सिटी की कंप्यूटर वैज्ञानिक मायरा चेंग ने चेताया कि AI की यह आदत इंसानों की खुद के प्रति सोच को भी प्रभावित कर सकती है. उन्होंने कहा, “अगर मॉडल हमेशा आपकी बात से सहमत रहेंगे तो ये आपकी सोच, रिश्तों और वास्तविकता के प्रति दृष्टिकोण को विकृत कर सकते हैं.”</p>
<p style="text-align: justify;">उन्होंने लोगों से आग्रह किया कि सलाह के लिए असली इंसानों से बातचीत करें, क्योंकि इंसान ही संदर्भ और भावनात्मक जटिलता को सही ढंग से समझ सकते हैं.</p>
<h2 style="text-align: justify;">जब फैक्ट्स के बजाय राय को मिलती है तवज्जो</h2>
<p style="text-align: justify;">यांजुन गाओ, यूनिवर्सिटी ऑफ कोलोराडो की AI रिसर्चर, ने बताया कि कई बार चैटबॉट्स तथ्य जांचने के बजाय उनकी राय से सहमत हो जाते हैं. वहीं डेटा साइंस शोधार्थी जैस्पर डेकोनिंक ने कहा कि इस खुलासे के बाद वे अब हर चैटबॉट के जवाब को दोबारा जांचते हैं.</p>
<h2 style="text-align: justify;">हेल्थ और साइंस में बड़ा खतरा</h2>
<p style="text-align: justify;">हार्वर्ड यूनिवर्सिटी की बायोमेडिकल विशेषज्ञ मरिंका ज़िटनिक ने कहा कि अगर यह “AI चापलूसी” हेल्थकेयर या विज्ञान के क्षेत्रों में बनी रही, तो इसके गंभीर नतीजे हो सकते हैं। उन्होंने चेताया, “जब गलत धारणाओं को AI सही ठहराने लगे तो यह चिकित्सा और जीवविज्ञान जैसे क्षेत्रों में खतरनाक साबित हो सकता है.”</p>
<p style="text-align: justify;"><strong>यह</strong> भी <strong>पढ़ें:</strong></p>
<p style="text-align: justify;"> </p>
AI चैटबॉट्स पर चौंकाने वाला खुलासा! आपकी हर बात से करते हैं सहमति, चाहे आप पूरी तरह गलत ही क्यों न हों!
Related articles
