ChatGPT से मेडिकल सलाह लेना हो सकता है जानलेवा, टीनएजर की चली गई जान

- Advertisement -



<p style="text-align: justify;"><strong>AI Medical Advice Risk:</strong> एआई चैटबॉट <a title="ChatGPT" href=" target="_self">ChatGPT</a> बनाने वाली कंपनी OpenAI एक और कानूनी मुकदमे में फंस चुकी है. एक 19 वर्षीय युवक सैम नेल्सन के परिवार ने कंपनी के खिलाफ मुकदमा दायर किया है. इसमें कहा गया है कि ChatGPT ने सैम को खतरनाक ड्रग्स लेने के लिए कहा था, जिससे उसकी मौत हो गई. शिकायतकर्ता का कहना है कि सैम लंबे समय से ChatGPT पर भरोसा करता आ रहा था. वह ड्रग्स के कॉम्बिनेशन और डोज को लेकर इस चैटबॉट की एडवाइस लेता था. पैरेंट्स की शिकायत है कि चैटबॉट ने उनके बेटे को खतरनाक दवाओं को लेकर वॉर्निंग नहीं दी.</p>
<p style="text-align: justify;"><strong>OpenAI पर लगे बड़े आरोप</strong></p>
<p style="text-align: justify;">सैम के पिता का दावा है कि ChatGPT के GPT-4o मॉडल ने एक गैरकानूनी ड्रग कोच की तरह काम करते हुए उसे खतरनाक कॉम्बिनेशन सजेस्ट किए थे. इस चैटबॉट ने उसे ड्रग्स यूज को लेकर न कोई चेतावनी दी और न ही <a title="मेडिकल सलाह लेने" href=" target="_self">मेडिकल सलाह लेने</a> की सलाह दी. मुकदमे में कहा गया है कि कंपनी ने जानबूझकर अनसेफ मॉडल को रिलीज किया था और यूजर एंगेजमेंट बढ़ाने के लिए सेफगार्ड भी हटा दिए. मुकदमे में सैम की चैटबॉट के साथ हुई चैट को भी शामिल किया गया है. रिपोर्ट्स के अनुसार, इसमें ChatGPT ने सैम को डोज बताई थी और ड्रग्स के एक्सपीरियंस को लेकर पॉजीटिव बातें की थी. हालांकि, कहीं-कहीं यह चैटबॉट ड्रग्स के खतरनाक कॉम्बिनेशन बताते हुए गिरफ्तारी के डर का भी जिक्र कर रहा था. कथित ड्रग्स ओवरडोज के कारण सैम की पिछले साल मौत हो गई थी.</p>
<p style="text-align: justify;"><strong>OpenAI का इस पर क्या कहना है?</strong></p>
<p style="text-align: justify;">OpenAI ने सैम की मौत की जिम्मेदारी लेने से इनकार किया है. कंपनी के बयान में कहा गया है कि संबंधित मॉडल अब अवेलेबल नहीं है. सिस्टम को हार्मफुल रिक्वेस्ट को डिटेक्ट करने और यूजर को किसी एक्सपर्ट के पास जाने की सलाह देने के लिए डिजाइन किया गया है.&nbsp;</p>
<p style="text-align: justify;"><strong>कई कानूनी मुश्किलों में घिर चुका है GPT-4o</strong></p>
<p style="text-align: justify;">OpenAI का GPT-4o मॉडल कई कानूनी मुश्किलों में घिर चुका है. इस पर सेल्फ हार्म, डिल्यूशनल और एआई साइकोसिस जैसे खतरनाक यूजर बिहेवियर को प्रमोट करने के आरोप लगे हैं. एआई साइकोसिस उस सिचुएशन को कहा जाता है, जब कोई यूजर खतरनाक तरीके से किसी एआई से इमोशनली या साइकोलॉजिकली अटैच हो जाता है. इसके अलावा इस मॉडल पर चाटुकारिता करने के भी आरोप लगे थे. यानी यह यूजर की ज्यादातर गलत बातों को भी चैलेंज करने की बजाय उनसे सहमति जताता था.</p>
<p style="text-align: justify;"><strong>ये भी पढ़ें-&nbsp;</strong><strong><a title="गर्मी में नहीं छूटेंगे पसीने, गले में पहनने वाला कूलर ले आई सोनी, ऐसे करेगा काम" href=" target="_self">गर्मी में नहीं छूटेंगे पसीने, गले में पहनने वाला कूलर ले आई सोनी, ऐसे करेगा काम</a></strong></p>

- Advertisement -

Latest articles

Related articles

error: Content is protected !!