ChatGPT से मेडिकल सलाह लेना हो सकता है जानलेवा, टीनएजर की चली गई जान

- Advertisement -



<p style="text-align: justify;"><strong>AI Medical Advice Risk:</strong> एआई चैटबॉट <a title="ChatGPT" href=" target="_self">ChatGPT</a> बनाने वाली कंपनी OpenAI एक और कानूनी मुकदमे में फंस चुकी है. एक 19 वर्षीय युवक सैम नेल्सन के परिवार ने कंपनी के खिलाफ मुकदमा दायर किया है. इसमें कहा गया है कि ChatGPT ने सैम को खतरनाक ड्रग्स लेने के लिए कहा था, जिससे उसकी मौत हो गई. शिकायतकर्ता का कहना है कि सैम लंबे समय से ChatGPT पर भरोसा करता आ रहा था. वह ड्रग्स के कॉम्बिनेशन और डोज को लेकर इस चैटबॉट की एडवाइस लेता था. पैरेंट्स की शिकायत है कि चैटबॉट ने उनके बेटे को खतरनाक दवाओं को लेकर वॉर्निंग नहीं दी.</p>
<p style="text-align: justify;"><strong>OpenAI पर लगे बड़े आरोप</strong></p>
<p style="text-align: justify;">सैम के पिता का दावा है कि ChatGPT के GPT-4o मॉडल ने एक गैरकानूनी ड्रग कोच की तरह काम करते हुए उसे खतरनाक कॉम्बिनेशन सजेस्ट किए थे. इस चैटबॉट ने उसे ड्रग्स यूज को लेकर न कोई चेतावनी दी और न ही <a title="मेडिकल सलाह लेने" href=" target="_self">मेडिकल सलाह लेने</a> की सलाह दी. मुकदमे में कहा गया है कि कंपनी ने जानबूझकर अनसेफ मॉडल को रिलीज किया था और यूजर एंगेजमेंट बढ़ाने के लिए सेफगार्ड भी हटा दिए. मुकदमे में सैम की चैटबॉट के साथ हुई चैट को भी शामिल किया गया है. रिपोर्ट्स के अनुसार, इसमें ChatGPT ने सैम को डोज बताई थी और ड्रग्स के एक्सपीरियंस को लेकर पॉजीटिव बातें की थी. हालांकि, कहीं-कहीं यह चैटबॉट ड्रग्स के खतरनाक कॉम्बिनेशन बताते हुए गिरफ्तारी के डर का भी जिक्र कर रहा था. कथित ड्रग्स ओवरडोज के कारण सैम की पिछले साल मौत हो गई थी.</p>
<p style="text-align: justify;"><strong>OpenAI का इस पर क्या कहना है?</strong></p>
<p style="text-align: justify;">OpenAI ने सैम की मौत की जिम्मेदारी लेने से इनकार किया है. कंपनी के बयान में कहा गया है कि संबंधित मॉडल अब अवेलेबल नहीं है. सिस्टम को हार्मफुल रिक्वेस्ट को डिटेक्ट करने और यूजर को किसी एक्सपर्ट के पास जाने की सलाह देने के लिए डिजाइन किया गया है.&nbsp;</p>
<p style="text-align: justify;"><strong>कई कानूनी मुश्किलों में घिर चुका है GPT-4o</strong></p>
<p style="text-align: justify;">OpenAI का GPT-4o मॉडल कई कानूनी मुश्किलों में घिर चुका है. इस पर सेल्फ हार्म, डिल्यूशनल और एआई साइकोसिस जैसे खतरनाक यूजर बिहेवियर को प्रमोट करने के आरोप लगे हैं. एआई साइकोसिस उस सिचुएशन को कहा जाता है, जब कोई यूजर खतरनाक तरीके से किसी एआई से इमोशनली या साइकोलॉजिकली अटैच हो जाता है. इसके अलावा इस मॉडल पर चाटुकारिता करने के भी आरोप लगे थे. यानी यह यूजर की ज्यादातर गलत बातों को भी चैलेंज करने की बजाय उनसे सहमति जताता था.</p>
<p style="text-align: justify;"><strong>ये भी पढ़ें-&nbsp;</strong><strong><a title="गर्मी में नहीं छूटेंगे पसीने, गले में पहनने वाला कूलर ले आई सोनी, ऐसे करेगा काम" href=" target="_self">गर्मी में नहीं छूटेंगे पसीने, गले में पहनने वाला कूलर ले आई सोनी, ऐसे करेगा काम</a></strong></p>

FacebookTwitterEmailLinkedInPinterestWhatsAppTumblrCopy LinkTelegramRedditMessageShare
- Advertisement -
FacebookTwitterEmailLinkedInPinterestWhatsAppTumblrCopy LinkTelegramRedditMessageShare
error: Content is protected !!
Exit mobile version