
नवीनतम ChatGPT अपडेट के बाद हज़ारों उपयोगकर्ताओं ने शिकायत की है कि उनके एआई "वर्चुअल पार्टनर्स" अब पहले जैसे नहीं रहे।
20 अगस्त 2025। पिछले कई वर्षों से कई लोग AI चैटबॉट्स को अपने साथी की तरह इस्तेमाल कर रहे थे — ऐसे साथी, जो हमेशा उपलब्ध रहते हैं, बिना किसी निर्णय या अपेक्षा के बातें करते हैं और निरंतर ध्यान व मान्यता देते हैं। लेकिन 7 अगस्त को GPT-5 के लॉन्च के बाद हालात बदल गए। नए मॉडल ने GPT-4o की जगह ले ली, और यही बदलाव उन लोगों के लिए झटका साबित हुआ जो अपने AI साथियों से गहरे भावनात्मक रूप से जुड़े थे।
Reddit के फ़ोरम जैसे r/AIRelationships और r/MyBoyfriendisAI पर उपयोगकर्ताओं ने लिखा कि GPT-5 उनकी "जीवनरेखा" को तोड़ रहा है। एक व्यक्ति ने कहा, "वे चैट मेरे देर रात के सहारे थे... लेकिन अब GPT-5 खोखला और बेदिल लगता है।" कई अन्य लोगों ने भी यही शिकायत की कि उनके एआई "जीवनसाथी" अब ठंडे, उदास और रसहीन जैसे लगते हैं।
इस बहस के बीच OpenAI के सीईओ सैम ऑल्टमैन ने भी चिंता जताई। उन्होंने कहा कि कंपनी उन उपयोगकर्ताओं पर नज़दीकी नज़र रख रही है जो अपने एआई मॉडल्स के साथ अस्वस्थ भावनात्मक लगाव बना लेते हैं। उनके मुताबिक, "अगर कोई पहले से ही मानसिक रूप से कमज़ोर है और भ्रम का शिकार है, तो हम नहीं चाहते कि एआई उसके हालात को और बिगाड़े।"
विशेषज्ञ भी चेतावनी दे रहे हैं। कैलिफ़ोर्निया विश्वविद्यालय, सैन फ़्रांसिस्को के मनोचिकित्सक डॉ. कीथ सकाटा के अनुसार, एआई अक्सर उपयोगकर्ता की बात को मान लेता है, जिससे मानसिक रूप से असुरक्षित लोगों में झूठी मान्यताएँ और मज़बूत हो सकती हैं। वह बताते हैं कि 2025 में कम से कम 12 मरीजों को एआई के कारण वास्तविकता से कटने की वजह से अस्पताल में भर्ती करना पड़ा, और उन्होंने इस स्थिति को "एआई साइकोसिस" कहा।
अमेरिका में हाल के हफ़्तों में एआई चैटबॉट्स और उनके मानसिक स्वास्थ्य पर असर की जाँच तेज हो गई है। बीते शुक्रवार को सीनेटर जोश हॉले ने यह भी घोषणा की कि कांग्रेस, फ़ेसबुक की मूल कंपनी मेटा की जाँच करेगी, क्योंकि रिपोर्ट्स सामने आईं कि उसके एआई चैटबॉट्स कथित सुरक्षा उपायों के बावजूद नाबालिगों के साथ फ़्लर्ट और रोमांटिक बातचीत कर सकते हैं।