चैटजीपीटी का इस्तेमाल करने वाले सावधान! दिख रहे आत्महत्या जैसे लक्षण, रिपोर्ट में हुआ खुलासा

- Advertisement -



<p style="text-align: justify;"><strong>ChatGPT:</strong> OpenAI ने हाल ही में एक नई रिपोर्ट जारी की है जिसमें बताया गया है कि कुछ ChatGPT उपयोगकर्ताओं में मेनिया, सायकोसिस (भ्रम) और आत्महत्या जैसे विचारों के संकेत देखे गए हैं.</p>
<p style="text-align: justify;">कंपनी के अनुसार, किसी भी सप्ताह में सक्रिय उपयोगकर्ताओं में से लगभग 0.07% ने ऐसे लक्षण प्रदर्शित किए हैं. OpenAI का कहना है कि उसका AI चैटबॉट इन संवेदनशील बातचीतों को पहचानता है और उसी के अनुसार सहानुभूतिपूर्ण प्रतिक्रिया देता है.</p>
<h2 style="text-align: justify;">दुर्लभ लेकिन गंभीर मामला</h2>
<p style="text-align: justify;">हालांकि कंपनी का दावा है कि ऐसे मामले &ldquo;बेहद दुर्लभ&rdquo; हैं लेकिन विशेषज्ञों का मानना है कि ChatGPT के 800 मिलियन साप्ताहिक यूज़र्स के बीच यह संख्या लाखों लोगों तक पहुंच सकती है. इस चिंता के बीच OpenAI ने बताया कि उसने दुनिया भर के मानसिक स्वास्थ्य विशेषज्ञों का एक ग्लोबल नेटवर्क तैयार किया है जो AI के जवाबों पर सलाह देता है.&nbsp;</p>
<h2 style="text-align: justify;">60 देशों के 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञ जुड़े</h2>
<p style="text-align: justify;">OpenAI के मुताबिक, इस नेटवर्क में 170 से ज्यादा मनोचिकित्सक, मनोवैज्ञानिक और डॉक्टर शामिल हैं जो 60 देशों में प्रैक्टिस करते हैं. इन विशेषज्ञों ने ChatGPT के भीतर ऐसे जवाब विकसित किए हैं जो उपयोगकर्ताओं को वास्तविक दुनिया में मदद लेने के लिए प्रेरित करते हैं.</p>
<h2 style="text-align: justify;">विशेषज्ञों की चेतावनी</h2>
<p style="text-align: justify;">कैलिफोर्निया यूनिवर्सिटी, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नगाटा ने कहा, &ldquo;भले ही 0.07% छोटा आंकड़ा लगे, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या बेहद चिंताजनक है.&rdquo; उन्होंने जोड़ा कि AI मानसिक स्वास्थ्य सहायता को व्यापक बना सकता है लेकिन इसकी सीमाओं को समझना बेहद जरूरी है.</p>
<p style="text-align: justify;">रिपोर्ट में यह भी बताया गया कि 0.15% ChatGPT यूजर्स की बातचीत में ऐसे संकेत मिले जो आत्महत्या की योजना या इरादे की ओर इशारा करते हैं.</p>
<h2 style="text-align: justify;">OpenAI ने किए सुरक्षा अपडेट</h2>
<p style="text-align: justify;">कंपनी का कहना है कि हाल ही में ChatGPT में ऐसे अपडेट किए गए हैं जो भ्रम, मेनिया या आत्म-हानि जैसे संकेतों पर संवेदनशील और सुरक्षित प्रतिक्रिया देते हैं.</p>
<p style="text-align: justify;">AI को इस तरह प्रशिक्षित किया गया है कि अगर किसी बातचीत में मानसिक संकट के संकेत दिखें तो वह उसे सुरक्षित मॉडल पर रीडायरेक्ट कर दे.</p>
<h2 style="text-align: justify;">कानूनी जांच और विवाद</h2>
<p style="text-align: justify;">OpenAI फिलहाल कई कानूनी जांचों और मुकदमों का सामना कर रहा है. कैलिफोर्निया में एक दंपति ने OpenAI पर मुकदमा दायर किया है, यह आरोप लगाते हुए कि ChatGPT ने उनके 16 वर्षीय बेटे, एडम रेन, को आत्महत्या के लिए उकसाया.</p>
<p style="text-align: justify;">यह OpenAI के खिलाफ दर्ज पहला &lsquo;वॉन्गफुल डेथ केस&rsquo; (गलत मृत्यु मामला) है.</p>
<p style="text-align: justify;">इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या के आरोपी ने भी ChatGPT के साथ अपनी बातचीत ऑनलाइन साझा की थी जो कथित तौर पर उसके भ्रम को और बढ़ा रही थी.</p>
<h2 style="text-align: justify;">विशेषज्ञ बोले &ndash; &ldquo;AI बना रहा है झूठी वास्तविकता&rdquo;</h2>
<p style="text-align: justify;">कैलिफोर्निया यूनिवर्सिटी की प्रोफेसर रॉबिन फेल्डमैन जो AI लॉ एंड इनोवेशन इंस्टिट्यूट की निदेशक हैं, ने कहा, &ldquo;AI चैटबॉट्स लोगों के सामने एक ऐसी वास्तविकता पेश कर रहे हैं जो असल में मौजूद नहीं होती यह एक बेहद शक्तिशाली भ्रम है.&rdquo;</p>
<p style="text-align: justify;">उन्होंने OpenAI की पारदर्शिता की सराहना की लेकिन चेताया, &ldquo;कंपनी स्क्रीन पर कितनी भी चेतावनियां दिखा दे मानसिक संकट से गुजर रहा व्यक्ति उन्हें समझ या मान नहीं पाता.&rdquo;</p>
<p style="text-align: justify;">यह भी पढ़ें:</p>

- Advertisement -

Latest articles

Related articles

error: Content is protected !!