चैटजीपीटी का इस्तेमाल करने वाले सावधान! दिख रहे आत्महत्या जैसे लक्षण, रिपोर्ट में हुआ खुलासा

- Advertisement -



<p style="text-align: justify;"><strong>ChatGPT:</strong> OpenAI ने हाल ही में एक नई रिपोर्ट जारी की है जिसमें बताया गया है कि कुछ ChatGPT उपयोगकर्ताओं में मेनिया, सायकोसिस (भ्रम) और आत्महत्या जैसे विचारों के संकेत देखे गए हैं.</p>
<p style="text-align: justify;">कंपनी के अनुसार, किसी भी सप्ताह में सक्रिय उपयोगकर्ताओं में से लगभग 0.07% ने ऐसे लक्षण प्रदर्शित किए हैं. OpenAI का कहना है कि उसका AI चैटबॉट इन संवेदनशील बातचीतों को पहचानता है और उसी के अनुसार सहानुभूतिपूर्ण प्रतिक्रिया देता है.</p>
<h2 style="text-align: justify;">दुर्लभ लेकिन गंभीर मामला</h2>
<p style="text-align: justify;">हालांकि कंपनी का दावा है कि ऐसे मामले &ldquo;बेहद दुर्लभ&rdquo; हैं लेकिन विशेषज्ञों का मानना है कि ChatGPT के 800 मिलियन साप्ताहिक यूज़र्स के बीच यह संख्या लाखों लोगों तक पहुंच सकती है. इस चिंता के बीच OpenAI ने बताया कि उसने दुनिया भर के मानसिक स्वास्थ्य विशेषज्ञों का एक ग्लोबल नेटवर्क तैयार किया है जो AI के जवाबों पर सलाह देता है.&nbsp;</p>
<h2 style="text-align: justify;">60 देशों के 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञ जुड़े</h2>
<p style="text-align: justify;">OpenAI के मुताबिक, इस नेटवर्क में 170 से ज्यादा मनोचिकित्सक, मनोवैज्ञानिक और डॉक्टर शामिल हैं जो 60 देशों में प्रैक्टिस करते हैं. इन विशेषज्ञों ने ChatGPT के भीतर ऐसे जवाब विकसित किए हैं जो उपयोगकर्ताओं को वास्तविक दुनिया में मदद लेने के लिए प्रेरित करते हैं.</p>
<h2 style="text-align: justify;">विशेषज्ञों की चेतावनी</h2>
<p style="text-align: justify;">कैलिफोर्निया यूनिवर्सिटी, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नगाटा ने कहा, &ldquo;भले ही 0.07% छोटा आंकड़ा लगे, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या बेहद चिंताजनक है.&rdquo; उन्होंने जोड़ा कि AI मानसिक स्वास्थ्य सहायता को व्यापक बना सकता है लेकिन इसकी सीमाओं को समझना बेहद जरूरी है.</p>
<p style="text-align: justify;">रिपोर्ट में यह भी बताया गया कि 0.15% ChatGPT यूजर्स की बातचीत में ऐसे संकेत मिले जो आत्महत्या की योजना या इरादे की ओर इशारा करते हैं.</p>
<h2 style="text-align: justify;">OpenAI ने किए सुरक्षा अपडेट</h2>
<p style="text-align: justify;">कंपनी का कहना है कि हाल ही में ChatGPT में ऐसे अपडेट किए गए हैं जो भ्रम, मेनिया या आत्म-हानि जैसे संकेतों पर संवेदनशील और सुरक्षित प्रतिक्रिया देते हैं.</p>
<p style="text-align: justify;">AI को इस तरह प्रशिक्षित किया गया है कि अगर किसी बातचीत में मानसिक संकट के संकेत दिखें तो वह उसे सुरक्षित मॉडल पर रीडायरेक्ट कर दे.</p>
<h2 style="text-align: justify;">कानूनी जांच और विवाद</h2>
<p style="text-align: justify;">OpenAI फिलहाल कई कानूनी जांचों और मुकदमों का सामना कर रहा है. कैलिफोर्निया में एक दंपति ने OpenAI पर मुकदमा दायर किया है, यह आरोप लगाते हुए कि ChatGPT ने उनके 16 वर्षीय बेटे, एडम रेन, को आत्महत्या के लिए उकसाया.</p>
<p style="text-align: justify;">यह OpenAI के खिलाफ दर्ज पहला &lsquo;वॉन्गफुल डेथ केस&rsquo; (गलत मृत्यु मामला) है.</p>
<p style="text-align: justify;">इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या के आरोपी ने भी ChatGPT के साथ अपनी बातचीत ऑनलाइन साझा की थी जो कथित तौर पर उसके भ्रम को और बढ़ा रही थी.</p>
<h2 style="text-align: justify;">विशेषज्ञ बोले &ndash; &ldquo;AI बना रहा है झूठी वास्तविकता&rdquo;</h2>
<p style="text-align: justify;">कैलिफोर्निया यूनिवर्सिटी की प्रोफेसर रॉबिन फेल्डमैन जो AI लॉ एंड इनोवेशन इंस्टिट्यूट की निदेशक हैं, ने कहा, &ldquo;AI चैटबॉट्स लोगों के सामने एक ऐसी वास्तविकता पेश कर रहे हैं जो असल में मौजूद नहीं होती यह एक बेहद शक्तिशाली भ्रम है.&rdquo;</p>
<p style="text-align: justify;">उन्होंने OpenAI की पारदर्शिता की सराहना की लेकिन चेताया, &ldquo;कंपनी स्क्रीन पर कितनी भी चेतावनियां दिखा दे मानसिक संकट से गुजर रहा व्यक्ति उन्हें समझ या मान नहीं पाता.&rdquo;</p>
<p style="text-align: justify;">यह भी पढ़ें:</p>

FacebookTwitterEmailLinkedInPinterestWhatsAppTumblrCopy LinkTelegramRedditMessageShare
- Advertisement -
FacebookTwitterEmailLinkedInPinterestWhatsAppTumblrCopy LinkTelegramRedditMessageShare
error: Content is protected !!
Exit mobile version