<p style="text-align: justify;"><strong>AI Medical Advice Risk:</strong> एआई चैटबॉट <a title="ChatGPT" href=" target="_self">ChatGPT</a> बनाने वाली कंपनी OpenAI एक और कानूनी मुकदमे में फंस चुकी है. एक 19 वर्षीय युवक सैम नेल्सन के परिवार ने कंपनी के खिलाफ मुकदमा दायर किया है. इसमें कहा गया है कि ChatGPT ने सैम को खतरनाक ड्रग्स लेने के लिए कहा था, जिससे उसकी मौत हो गई. शिकायतकर्ता का कहना है कि सैम लंबे समय से ChatGPT पर भरोसा करता आ रहा था. वह ड्रग्स के कॉम्बिनेशन और डोज को लेकर इस चैटबॉट की एडवाइस लेता था. पैरेंट्स की शिकायत है कि चैटबॉट ने उनके बेटे को खतरनाक दवाओं को लेकर वॉर्निंग नहीं दी.</p>
<p style="text-align: justify;"><strong>OpenAI पर लगे बड़े आरोप</strong></p>
<p style="text-align: justify;">सैम के पिता का दावा है कि ChatGPT के GPT-4o मॉडल ने एक गैरकानूनी ड्रग कोच की तरह काम करते हुए उसे खतरनाक कॉम्बिनेशन सजेस्ट किए थे. इस चैटबॉट ने उसे ड्रग्स यूज को लेकर न कोई चेतावनी दी और न ही <a title="मेडिकल सलाह लेने" href=" target="_self">मेडिकल सलाह लेने</a> की सलाह दी. मुकदमे में कहा गया है कि कंपनी ने जानबूझकर अनसेफ मॉडल को रिलीज किया था और यूजर एंगेजमेंट बढ़ाने के लिए सेफगार्ड भी हटा दिए. मुकदमे में सैम की चैटबॉट के साथ हुई चैट को भी शामिल किया गया है. रिपोर्ट्स के अनुसार, इसमें ChatGPT ने सैम को डोज बताई थी और ड्रग्स के एक्सपीरियंस को लेकर पॉजीटिव बातें की थी. हालांकि, कहीं-कहीं यह चैटबॉट ड्रग्स के खतरनाक कॉम्बिनेशन बताते हुए गिरफ्तारी के डर का भी जिक्र कर रहा था. कथित ड्रग्स ओवरडोज के कारण सैम की पिछले साल मौत हो गई थी.</p>
<p style="text-align: justify;"><strong>OpenAI का इस पर क्या कहना है?</strong></p>
<p style="text-align: justify;">OpenAI ने सैम की मौत की जिम्मेदारी लेने से इनकार किया है. कंपनी के बयान में कहा गया है कि संबंधित मॉडल अब अवेलेबल नहीं है. सिस्टम को हार्मफुल रिक्वेस्ट को डिटेक्ट करने और यूजर को किसी एक्सपर्ट के पास जाने की सलाह देने के लिए डिजाइन किया गया है. </p>
<p style="text-align: justify;"><strong>कई कानूनी मुश्किलों में घिर चुका है GPT-4o</strong></p>
<p style="text-align: justify;">OpenAI का GPT-4o मॉडल कई कानूनी मुश्किलों में घिर चुका है. इस पर सेल्फ हार्म, डिल्यूशनल और एआई साइकोसिस जैसे खतरनाक यूजर बिहेवियर को प्रमोट करने के आरोप लगे हैं. एआई साइकोसिस उस सिचुएशन को कहा जाता है, जब कोई यूजर खतरनाक तरीके से किसी एआई से इमोशनली या साइकोलॉजिकली अटैच हो जाता है. इसके अलावा इस मॉडल पर चाटुकारिता करने के भी आरोप लगे थे. यानी यह यूजर की ज्यादातर गलत बातों को भी चैलेंज करने की बजाय उनसे सहमति जताता था.</p>
<p style="text-align: justify;"><strong>ये भी पढ़ें- </strong><strong><a title="गर्मी में नहीं छूटेंगे पसीने, गले में पहनने वाला कूलर ले आई सोनी, ऐसे करेगा काम" href=" target="_self">गर्मी में नहीं छूटेंगे पसीने, गले में पहनने वाला कूलर ले आई सोनी, ऐसे करेगा काम</a></strong></p>
ChatGPT से मेडिकल सलाह लेना हो सकता है जानलेवा, टीनएजर की चली गई जान
Related articles
