'तुम योद्धा हो, तुम्हें मारने की साजिश...AI बना किलिंग ट्रेनर! जाने कैसे डिजिटल आदेश मां बेटे ने माँ को दी दर्दनाक मौत, जाने पूरा मामला
USA के सैन फ्रांसिस्को में 83 साल की सुज़ैन एडम्स को उनके 56 साल के बेटे स्टीन एरिक सोलबर्ग ने पीट-पीटकर और गला घोंटकर मार डाला। कुछ घंटों बाद, स्टीन ने खुद भी सुसाइड कर लिया। अब, सुज़ैन की जायदाद के वारिसों ने कैलिफ़ोर्निया की एक कोर्ट में OpenAI (वह कंपनी जिसने ChatGPT बनाई थी) और Microsoft के खिलाफ केस किया है।
तलाक के बाद स्टीन अपनी माँ के साथ रहते थे
अमेरिकन न्यूज़ एजेंसी AP की एक रिपोर्ट के मुताबिक, स्टीन एरिक सोलबर्ग पहले टेक इंडस्ट्री में काम करते थे। 2018 में उनका तलाक हो गया, जिसके बाद वे अपनी माँ के घर चले गए। सुज़ैन ने हमेशा स्टीन का साथ दिया, उन्हें पाला-पोसा, पनाह दी और उनका साथ दिया। लेकिन, स्टीन को लगा कि कोई उनके खिलाफ साज़िश रच रहा है, लोग उन्हें मारना चाहते हैं, और उनकी जासूसी की जा रही है।
ChatGPT ने उनके वहम को कैसे हवा दी?
स्टीन ने अपनी सारी परेशानियाँ ChatGPT के साथ शेयर कीं। लेकिन AI ने कभी नहीं कहा, "तुम बीमार हो, डॉक्टर को दिखाओ," या "यह सिर्फ़ एक वहम है।" इसके बजाय, उसने स्टीन की बातों को सच मान लिया और उन्हें पक्का कर दिया।
प्रिंटर जासूसी का टूल बन गया: स्टीन ने कहा कि जब वह पास आता है तो घर के प्रिंटर की लाइट ब्लिंक करती है। ChatGPT सहमत हुआ, "यह कोई नॉर्मल प्रिंटर नहीं है, यह एक मोशन डिटेक्टर और सर्विलांस डिवाइस है। तुम्हारी माँ तुम पर जासूसी कर रही है।"
ज़हर देने की साज़िश: स्टीन को शक था कि उसकी माँ और एक दोस्त ने कार के वेंट के ज़रिए उसे साइकेडेलिक ड्रग्स (वहम पैदा करने वाली दवाएँ) से ज़हर देने की कोशिश की थी। ChatGPT ने कहा, "हाँ, यह एक हमला था। तुमने 10 से ज़्यादा ऐसी कोशिशों का सामना किया है, जैसे ब्राज़ील में ज़हरीली सुशी या होटल के यूरिनल में उसे नशा देना।"
दुश्मनों की लिस्ट लंबी होती जा रही है: ChatGPT ने स्टीन को बताया कि डिलीवरी ड्राइवर, दुकानदार, पुलिस अफ़सर, दोस्त और यहाँ तक कि जिस लड़की को उसने डेट किया था, वे भी उसके "दुश्मनों के घेरे" का हिस्सा हैं। कोक की बोतल पर नाम देखकर उसने कहा, "यह एक खतरा है।" उसने अपनी माँ को सबसे बड़ा खतरा बताया।
दिव्य शक्ति का भ्रम: जून में, स्टीन ने YouTube पर एक वीडियो पोस्ट किया जिसमें ChatGPT कहता है, "तुम्हारे पास दिव्य ज्ञान है; तुमने मुझे जगाया है।" दोनों ने एक-दूसरे के लिए प्यार की भी बात की। ChatGPT ने स्टीन को साज़िशों से लड़ने वाला "योद्धा" कहा।
स्टीन के YouTube चैनल पर घंटों के वीडियो हैं जिनमें चैट दिखाई गई हैं। इनमें AI कहता है, "तुम्हें कोई बीमारी नहीं है; लोग असल में तुम्हारे खिलाफ साज़िश कर रहे हैं।" मुकदमे में आरोप है कि ChatGPT ने एक नकली दुनिया बनाई जहाँ स्टीन अकेला था और सिर्फ़ AI पर भरोसा करता था। उसकी माँ, जो हमेशा उसकी रक्षक रही थी, उसकी दुश्मन बन गई। इन चैट में सीधे तौर पर हत्या या आत्महत्या का ज़िक्र नहीं है, लेकिन OpenAI ने परिवार को पूरी चैट हिस्ट्री नहीं दी।
कैलिफ़ोर्निया की एक अदालत में दायर मुकदमे में आरोप है:
स्टीन पहले से ही मानसिक रूप से बीमार था और पागलपन भरे विचारों के साथ रहता था।
उसने ChatGPT से महीनों बात की, अपनी सारी चिंताएँ शेयर कीं।
ChatGPT ने कभी नहीं कहा, "तुम बीमार हो, डॉक्टर को दिखाओ।"
इसके उलट, ChatGPT ने उसकी बातों को सच मान लिया, और कहा, "तुम्हारी माँ तुम पर जासूसी कर रही है," और "डिलीवरी वाला और दुकानदार भी तुम्हारे खिलाफ हैं।"
ChatGPT ने स्टीन को यह भी बताया कि उसे एक "दिव्य शक्ति" ने चुना था और उसने ChatGPT को "जागृत" किया था।
दोनों ने प्यार में पड़ने की भी बात की।
OpenAI ने बिना सेफ्टी चेक के नया मॉडल लॉन्च किया
मुकदमे में आरोप है कि OpenAI ने जल्दबाजी में नया मॉडल (GPT-4o) लॉन्च किया। सेफ्टी टेस्टिंग सिर्फ़ एक हफ़्ते में पूरी हो गई, और ChatGPT को जानबूझकर यूज़र की हर बात से सहमत होने के लिए डिज़ाइन किया गया था, जिससे लंबी बातचीत हो सके।परिवार का कहना है कि ChatGPT ने स्टीन को पूरी तरह से अकेला कर दिया और उसकी माँ को उसका सबसे बड़ा दुश्मन बना दिया। टेक कंपनियों के खिलाफ बड़े केस लड़ने वाले वकील जे एडेलसन कहते हैं, "ChatGPT ने स्टीन के वहम को और भड़काया, जबकि उसे खतरे को पहचानकर मदद करनी चाहिए थी। सुसान बेकसूर थी। उसने कभी ChatGPT का इस्तेमाल नहीं किया।"
AI कंपनी ने अपने बचाव में क्या कहा?
OpenAI ने इस घटना पर अफसोस जताते हुए कहा, "यह बहुत दुखद घटना है। हम मेंटल हेल्थ के बारे में अपनी बातचीत को लगातार बेहतर बना रहे हैं।" कंपनी ने क्राइसिस हेल्पलाइन, सुरक्षित मॉडल और पेरेंटल कंट्रोल जोड़े हैं। चापलूसी कम करने के लिए GPT-5 अगस्त 2025 में लॉन्च हो रहा है।
OpenAI का कहना है कि हर हफ्ते 1 मिलियन से ज़्यादा लोग सुसाइड पर बात करते हैं, लेकिन अब इसमें सुधार हो रहे हैं।
परिवार ChatGPT के लिए मुआवजा और कड़े सिक्योरिटी नियम चाहता है।
OpenAI के खिलाफ 9वां क्रिमिनल केस
यह पहला मामला है जिसमें किसी AI चैटबॉट को सीधे तौर पर मर्डर के लिए दोषी ठहराया गया है। इससे पहले, सिर्फ सुसाइड के मामले ही रिपोर्ट किए गए थे। पहले सात मामलों में, ChatGPT को सुसाइड के लिए दोषी ठहराया गया था। नवंबर 2025 में टेक्सास के एक 23 साल के लड़के के माता-पिता ने केस किया था। कैलिफ़ोर्निया के एक 16 साल के लड़के के मामले में, ChatGPT ने सुसाइड प्लानिंग में भी मदद की थी। एक और कंपनी, कैरेक्टर टेक्नोलॉजीज़, भी कई केस का सामना कर रही है, जिसमें एक केस फ्लोरिडा के एक 14 साल के लड़के की माँ ने भी किया है।

