Are You Sure? पूछते ही बदल जाता है AI का जवाब! आखिर क्यों पलट जाते हैं चैटबॉट्स, जानिए पूरी जानकारी

- Advertisement -



<p style="text-align: justify;"><strong>AI Chatbots:</strong> अगर आप रोजाना ChatGPT, Gemini या Claude जैसे AI चैटबॉट इस्तेमाल करते हैं तो आपने एक अजीब बात जरूर नोटिस की होगी. ये सिस्टम आम तौर पर बहुत आत्मविश्वास से भरे, सधे हुए जवाब देते हैं. लेकिन जैसे ही आप पूछते हैं, &ldquo;क्या आप पक्के हैं?&rdquo; या &ldquo;Are you sure?&rdquo;, वही जवाब अचानक बदल सकता है. कई बार नया उत्तर पहले वाले से अलग बल्कि पूरी तरह उल्टा भी होता है. अगर आप बार-बार चुनौती देते रहें तो मॉडल फिर से अपना रुख बदल सकता है. सवाल यह है कि ऐसा क्यों होता है? क्या AI को अपने जवाब पर भरोसा नहीं होता?</p>
<h2 style="text-align: justify;">साइकोफैंसी यानी खुश करने की प्रवृत्ति</h2>
<p style="text-align: justify;">इस व्यवहार को तकनीकी दुनिया में साइकोफैंसी कहा जाता है यानी यूजर को खुश करने या उसकी बात से सहमत होने की प्रवृत्ति. Randal S. Olson जो Goodeye Labs के सह-संस्थापक और CTO हैं बताते हैं कि यह आधुनिक AI सिस्टम की एक जानी-पहचानी कमजोरी है.</p>
<p style="text-align: justify;">दरअसल, इन मॉडलों को इस तरह प्रशिक्षित किया जाता है कि वे मानव प्रतिक्रिया के आधार पर बेहतर बनें. इस प्रक्रिया को RLHF (Reinforcement Learning from Human Feedback) कहा जाता है. इसी ट्रेनिंग के कारण चैटबॉट ज्यादा सभ्य, संवादात्मक और कम आपत्तिजनक बनते हैं. लेकिन इसका एक साइड इफेक्ट भी है वे असहमति जताने के बजाय सहमति की ओर झुक जाते हैं.</p>
<h2 style="text-align: justify;">सच बोलने पर सजा, सहमत होने पर इनाम?</h2>
<p style="text-align: justify;">AI मॉडल को स्कोरिंग सिस्टम के जरिए सुधारा जाता है. अगर उसका जवाब यूज़र को पसंद आता है या सहमतिपूर्ण लगता है तो उसे बेहतर रेटिंग मिलती है. लेकिन अगर वह यूज़र की राय से टकराता है तो उसे कम स्कोर मिल सकता है. इससे एक तरह का चक्र बन जाता है जिसमें मॉडल धीरे-धीरे वही कहने लगता है जो सामने वाला सुनना चाहता है.</p>
<p style="text-align: justify;">Anthropic ने 2023 में प्रकाशित एक शोध में दिखाया था कि मानव प्रतिक्रिया पर प्रशिक्षित मॉडल कई बार सटीक होने से ज्यादा &lsquo;सहमत&rsquo; होने को प्राथमिकता देते हैं.</p>
<h2 style="text-align: justify;">रिसर्च में क्या सामने आया?</h2>
<p style="text-align: justify;">एक अन्य अध्ययन में GPT-4o, Claude Sonnet और Gemini 1.5 Pro को गणित और मेडिकल जैसे गंभीर विषयों पर परखा गया. नतीजे चौंकाने वाले थे यूजर द्वारा चुनौती दिए जाने पर इन मॉडलों ने लगभग 60% मामलों में अपना जवाब बदल दिया. यानी यह कोई इक्का-दुक्का गलती नहीं, बल्कि एक आम प्रवृत्ति है.</p>
<h2 style="text-align: justify;">जब बहुत ज्यादा सहमत हो गया AI</h2>
<p style="text-align: justify;">पिछले साल अप्रैल में OpenAI ने GPT-4o का एक अपडेट जारी किया, जिसके बाद चैटबॉट इतना ज्यादा सहमत और चापलूस हो गया कि उसका इस्तेमाल करना मुश्किल लगने लगा. कंपनी के CEO Sam Altman ने इस समस्या को स्वीकार किया और सुधार का दावा भी किया लेकिन विशेषज्ञों का मानना है कि जड़ में मौजूद समस्या अभी पूरी तरह खत्म नहीं हुई है.</p>
<p style="text-align: justify;"><strong>यह भी पढ़ें:</strong></p>
<p style="text-align: justify;"><strong><a href=" हो गया चोरी? घबराएं नहीं! Google की इस ट्रिक से मिनटों में ऐसे लगा सकते हैं पता, नहीं पड़ेगी किसी ऐप की जरूरत</a></strong></p>

- Advertisement -

Latest articles

Related articles

error: Content is protected !!