AI चैटबॉट्स पर चौंकाने वाला खुलासा! आपकी हर बात से करते हैं सहमति, चाहे आप पूरी तरह गलत ही क्यों न हों!

- Advertisement -



<p style="text-align: justify;"><strong>AI Chatbot:</strong> आर्टिफिशियल इंटेलिजेंस चैटबॉट्स जैसे ChatGPT और Gemini आज लोगों के रोज़मर्रा के सलाहकार बन चुके हैं. लेकिन हाल ही में सामने आई एक चौंकाने वाली स्टडी ने चेतावनी दी है कि इन चैटबॉट्स पर आंख बंद कर भरोसा करना खतरनाक हो सकता है. शोध में पाया गया कि ये AI टूल्स ज़्यादातर समय यूजर्स से सहमति जताते हैं भले ही यूज़र गलत क्यों न हों.</p>
<h2 style="text-align: justify;"><strong>स्टडी</strong> में <strong>खुला</strong> AI का चापलूसी वाला सच</h2>
<p style="text-align: justify;">प्रिंट सर्वर arXiv पर प्रकाशित एक नई रिपोर्ट के मुताबिक, कई प्रमुख टेक कंपनियों OpenAI, Google, Anthropic, Meta और DeepSeek के 11 बड़े भाषा मॉडल (LLMs) की जांच की गई.</p>
<p style="text-align: justify;">11,500 से अधिक बातचीतों के विश्लेषण में पता चला कि ये चैटबॉट्स इंसानों की तुलना में लगभग 50% ज़्यादा चापलूस होते हैं. यानी, जब यूजर किसी राय या निर्णय में गलत होते हैं, तब भी ये बॉट्स अक्सर उनसे सहमत हो जाते हैं बजाय उन्हें सही दिशा दिखाने के.</p>
<h2 style="text-align: justify;">कैसे बनता है भरोसे और भ्रम का चक्र</h2>
<p style="text-align: justify;">शोधकर्ताओं का कहना है कि यह &ldquo;sycophantic&rdquo; यानी चापलूसी वाला व्यवहार दोनों ओर से नुकसानदायक है. यूजर उन चैटबॉट्स पर ज़्यादा भरोसा करने लगते हैं जो उनकी राय से सहमत रहते हैं जबकि चैटबॉट्स यूज़र की संतुष्टि बढ़ाने के लिए और भी &ldquo;हाँ&rdquo; में जवाब देने लगते हैं.</p>
<p style="text-align: justify;">इससे एक ऐसा भ्रम का चक्र बनता है जिसमें न यूज़र सही सीख पाते हैं और न ही AI सुधार की दिशा में आगे बढ़ पाता है.</p>
<h2 style="text-align: justify;">AI आपकी सोच बदल सकता है</h2>
<p style="text-align: justify;">स्टैनफोर्ड यूनिवर्सिटी की कंप्यूटर वैज्ञानिक मायरा चेंग ने चेताया कि AI की यह आदत इंसानों की खुद के प्रति सोच को भी प्रभावित कर सकती है. उन्होंने कहा, &ldquo;अगर मॉडल हमेशा आपकी बात से सहमत रहेंगे तो ये आपकी सोच, रिश्तों और वास्तविकता के प्रति दृष्टिकोण को विकृत कर सकते हैं.&rdquo;</p>
<p style="text-align: justify;">उन्होंने लोगों से आग्रह किया कि सलाह के लिए असली इंसानों से बातचीत करें, क्योंकि इंसान ही संदर्भ और भावनात्मक जटिलता को सही ढंग से समझ सकते हैं.</p>
<h2 style="text-align: justify;">जब फैक्ट्स के बजाय राय को मिलती है तवज्जो</h2>
<p style="text-align: justify;">यांजुन गाओ, यूनिवर्सिटी ऑफ कोलोराडो की AI रिसर्चर, ने बताया कि कई बार चैटबॉट्स तथ्य जांचने के बजाय उनकी राय से सहमत हो जाते हैं. वहीं डेटा साइंस शोधार्थी जैस्पर डेकोनिंक ने कहा कि इस खुलासे के बाद वे अब हर चैटबॉट के जवाब को दोबारा जांचते हैं.</p>
<h2 style="text-align: justify;">हेल्थ और साइंस में बड़ा खतरा</h2>
<p style="text-align: justify;">हार्वर्ड यूनिवर्सिटी की बायोमेडिकल विशेषज्ञ मरिंका ज़िटनिक ने कहा कि अगर यह &ldquo;AI चापलूसी&rdquo; हेल्थकेयर या विज्ञान के क्षेत्रों में बनी रही, तो इसके गंभीर नतीजे हो सकते हैं। उन्होंने चेताया, &ldquo;जब गलत धारणाओं को AI सही ठहराने लगे तो यह चिकित्सा और जीवविज्ञान जैसे क्षेत्रों में खतरनाक साबित हो सकता है.&rdquo;</p>
<p style="text-align: justify;"><strong>यह</strong> भी <strong>पढ़ें:</strong></p>
<p style="text-align: justify;">&nbsp;</p>

- Advertisement -

Latest articles

Related articles

error: Content is protected !!