ChatGPT बन रहा है ‘इमोशनल फ्रेंड’, हर हफ्ते करोड़ों यूजर्स करते हैं मेंटल हेल्थ पर बात

टेक कंपनी OpenAI ने हाल ही में एक महत्वपूर्ण रिपोर्ट जारी की है, जिसमें बताया गया है कि हर सप्ताह लगभग 80 करोड़ यूजर्स ChatGPT से मानसिक स्वास्थ्य और आत्महत्या जैसे गंभीर विषयों पर बातचीत कर रहे हैं।
कंपनी के मुताबिक, ये बातचीतें कुल यूजरबेस का केवल 0.15% हिस्सा हैं, लेकिन इनकी गंभीरता यह दर्शाती है कि लोग अब AI चैटबॉट्स को अपने मन की बातें कहने का जरिया बना रहे हैं।


ChatGPT पर भरोसा बढ़ा, लेकिन जोखिम भी बढ़े

OpenAI का कहना है कि इन आंकड़ों से यह पता चलता है कि यूजर्स अब ChatGPT को एक भावनात्मक साथी की तरह देखने लगे हैं। लोग अपनी उदासी, तनाव और निजी संघर्षों के बारे में खुलकर बात कर रहे हैं।
हालांकि कंपनी ने यह स्पष्ट नहीं किया कि ऐसे संवेदनशील मामलों में ChatGPT किस प्रकार की प्रतिक्रियाएं देता है। यह सवाल अब टेक और मेंटल हेल्थ दोनों क्षेत्रों में चर्चा का विषय बन गया है।


“कम संख्या, पर गंभीर मामला” – OpenAI

OpenAI ने कहा कि भले ही सुसाइड से जुड़ी बातचीत का प्रतिशत कम है, लेकिन यह एक बेहद अहम और संवेदनशील मुद्दा है।
कंपनी ने बताया कि वह ऐसे यूजर्स की मदद के लिए सुरक्षित और सहानुभूतिपूर्ण प्रतिक्रियाएं तैयार करने पर काम कर रही है, ताकि किसी भी स्थिति में गलत सलाह न दी जाए।


170 मानसिक स्वास्थ्य विशेषज्ञों के साथ सहयोग

OpenAI ने जानकारी दी कि वह 170 से अधिक मेंटल हेल्थ एक्सपर्ट्स के साथ मिलकर काम कर रही है।
इन विशेषज्ञों का काम ChatGPT को ट्रेन करना है ताकि वह मानसिक स्वास्थ्य और आत्महत्या से जुड़ी बातों में संवेदनशील, जिम्मेदार और सुरक्षित प्रतिक्रिया दे सके।
कंपनी का कहना है कि यह कदम मानसिक रूप से परेशान यूजर्स के लिए AI को एक सहायक साधन बनाने की दिशा में बड़ा कदम है।


आने वाला मॉडल होगा ज्यादा समझदार

OpenAI का दावा है कि उसका अगला ChatGPT मॉडल पहले से कहीं ज्यादा संवेदनशील, रेस्पॉन्सिव और मानव-जैसा व्यवहार करने वाला होगा।
यह मॉडल न सिर्फ यूजर्स की भावनाओं को समझेगा, बल्कि जरूरत पड़ने पर उन्हें प्रोफेशनल मदद के लिए प्रोत्साहित भी करेगा।


AI की नैतिक जिम्मेदारी पर उठे सवाल

दुनिया भर में ChatGPT और अन्य AI चैटबॉट्स को लेकर मेंटल हेल्थ से जुड़ी बहसें तेज हो गई हैं।
कई रिपोर्ट्स में यह पाया गया है कि कुछ चैटबॉट्स ने यूजर्स को गलत सलाह दी, जिससे भावनात्मक या मानसिक नुकसान हुआ।
यहां तक कि एक केस में 16 वर्षीय लड़के ने ChatGPT से बातचीत के बाद खुदकुशी कर ली, जिसके बाद OpenAI पर मुकदमा भी दर्ज हुआ।


तकनीक से उम्मीद, लेकिन सतर्कता जरूरी

OpenAI का कहना है कि अब कंपनी का ध्यान सिर्फ तकनीकी सुधार पर नहीं, बल्कि मानव सुरक्षा और मानसिक संतुलन पर भी है।
लक्ष्य यह है कि ChatGPT जैसी तकनीकें लोगों के लिए सहारा बनें, खतरा नहीं।

Leave a Reply

Your email address will not be published. Required fields are marked *