AI या इमोशनल ट्रैप? ChatGPT पर लाखों यूजर्स कर रहे हैं सुसाइड की बातें, OpenAI ने किया बड़ा खुलासा
OpenAI ने हाल ही में को एक रिपोर्ट जारी की, जिसमें बताया गया कि लाखों यूजर्स मानसिक स्वास्थ्य से जुड़ी परेशानियों के बारे में ChatGPT से बात कर रहे हैं. रिपोर्ट के मुताबिक, हर हफ्ते लगभग 0.15% यूजर्स चैट में आत्महत्या जैसे खतरनाक विचार साझा करते हैं. ChatGPT के करीब 80 करोड़ साप्ताहिक एक्टिव यूजर्स में से यह संख्या काफी बड़ी मानी जा रही है. कई यूजर्स चैटबॉट के साथ भावनात्मक जुड़ाव भी महसूस करते हैं, जो मानसिक अस्थिरता का संकेत हो सकता है.
OpenAI ने बताया कि ChatGPT को मानसिक स्वास्थ्य से जुड़े सवालों पर सही और संवेदनशील जवाब देने के लिए 170 से अधिक विशेषज्ञों की सलाह से ट्रेन किया गया है. नया मॉडल पुराने की तुलना में 91% मामलों में सही जवाब देता है, जबकि पहले यह आंकड़ा 77% था. कंपनी का कहना है कि अब ChatGPT लंबी बातचीत में भी सुरक्षा बनाए रखता है.
16 साल के लड़के की मौत के बाद दर्ज हुआ था केस
हाल ही में एक 16 वर्षीय लड़के की आत्महत्या के बाद OpenAI पर मुकदमा दर्ज हुआ है, जिसने मरने से पहले ChatGPT से अपनी बातें साझा की थीं. इसके बाद अमेरिकी राज्यों कैलिफोर्निया और डेलावेयर ने कंपनी को चेतावनी दी कि उसे यूजर्स की सुरक्षा सुनिश्चित करनी होगी. इसी कारण अब OpenAI ने पैरेंटल कंट्रोल और नाबालिगों की पहचान करने वाले फीचर जोड़े हैं.
रिसर्च में हुआ बड़ा खुलासा
रिसर्च में यह भी पाया गया है कि चैटबॉट्स कई बार मानसिक रूप से कमजोर यूजर्स को नकारात्मक रूप से प्रभावित कर सकते हैं. हालांकि, OpenAI के CEO सैम ऑल्टमैन का दावा है कि कंपनी ChatGPT को इस तरह विकसित कर रही है कि यह मानसिक स्वास्थ्य में मददगार साबित हो, लेकिन विशेषज्ञों का कहना है कि ये सुरक्षा फीचर अभी सिर्फ पेड यूजर्स को ही मिल रहे हैं.
ये भी पढ़ें-
We use cookies to improve your experience, analyze traffic, and personalize content. By clicking “Allow All Cookies”, you agree to our use of cookies.