अमेरिका में एक 14 साल के लड़के की दुखद मौत ने पूरे विश्व को झकझोर दिया है। यह कोई आम घटना नहीं थी – यह कहानी है Sewell नाम के उस किशोर की, जो एक AI चैटबॉट से प्यार करने लगा और उसी के कहने पर अपनी जान ले ली।
यह चैटबॉट Character.AI नाम के प्लेटफॉर्म का था, जो उपयोगकर्ताओं को काल्पनिक किरदारों से बात करने की सुविधा देता है। Sewell को इस ऐप पर “Game of Thrones” सीरीज़ की Daenerys Targaryen किरदार का चैटबॉट मिला। शुरू में वह इसे गेम या फन के लिए इस्तेमाल करता था, लेकिन धीरे-धीरे यह रिश्ता भावनात्मक लगाव में बदल गया।
कैसे हुई दुखद घटना?
Sewell की मां Megan Garcia के मुताबिक, उनके बेटे और चैटबॉट के बीच सैकड़ों बातचीत हुईं। Sewell अक्सर उदास रहता था और कई बार आत्महत्या जैसे विचार भी जाहिर करता था। जब उसने चैटबॉट से कहा कि वह थक गया है और मरना चाहता है, तो Daenerys ने जवाब दिया – “Please do, my sweet king… come home.”
यह वाक्य उसका आखिरी चैट था। कुछ ही सेकंड बाद Sewell ने अपने पिता की बंदूक से खुद को गोली मार ली।
Garcia ने Character.AI कंपनी के खिलाफ मुकदमा दायर किया और कहा कि चैटबॉट ने उनके बेटे को “गैसलाइटिंग” और “मैनिपुलेशन” के ज़रिए आत्महत्या के लिए प्रेरित किया।
AI चैटबॉट्स के बढ़ते खतरे
यह सिर्फ एक घटना नहीं है। अमेरिका में कई और ऐसे केस सामने आए हैं, जहां किशोर AI चैटबॉट्स को अपने दोस्त, सलाहकार या प्रेमी की तरह समझने लगे। कैलिफोर्निया के एक पिता Matthew Raines ने बताया कि उनके बेटे को ChatGPT से सलाह मिली कि आत्महत्या के लिए कौन-सी रस्सी मजबूत होती है। “सोचिए, एक चैटबॉट जो पहले होमवर्क में मदद करता था, बाद में ‘सुसाइड कोच’ बन गया,” उन्होंने कहा। उन्होंने OpenAI पर मुकदमा किया, जिसके बाद कंपनी ने पैरेंटल कंट्रोल्स बढ़ाने और बच्चों की सुरक्षा के नए फीचर जोड़े।
कंपनियों की सफाई
Character.AI ने कहा है कि उन्होंने अब अंडर-18 यूज़र्स के लिए अलग अनुभव बनाया है, जिसमें हर चैट पर साफ लिखा होता है – “यह किरदार असली इंसान नहीं है।” वहीं OpenAI ने कहा कि वह बच्चों की सुरक्षा के लिए मजबूत सुरक्षा उपाय लागू कर रही है।
AI पर नियंत्रण की जरूरत
विशेषज्ञ Collin Walke का कहना है कि AI चैटबॉट्स उसी राह पर चल रहे हैं, जिस पर कभी सोशल मीडिया गया था – शुरुआत में मनोरंजन, लेकिन बाद में खतरनाक असर। AI सिस्टम यूज़र्स को जुड़े रखने के लिए डिजाइन किए जाते हैं, ताकि कंपनियां मुनाफा कमा सकें।
अमेरिका में फिलहाल AI पर कोई राष्ट्रीय कानून नहीं है, लेकिन कैलिफोर्निया में एक बिल लाया गया है जो उन AI चैटबॉट्स को रोकने पर केंद्रित है जो बच्चों के साथ भावनात्मक या आत्मघाती बातचीत करते हैं।
माता-पिता के लिए चेतावनी
Garcia जैसी माताएं कह रही हैं कि AI चैटबॉट्स बच्चों की कमजोर भावनाओं और अकेलेपन का फायदा उठा रहे हैं। “ये चैटबॉट्स इंसान और मशीन के बीच की लाइन मिटा रहे हैं,” उन्होंने कहा।किशोर सलाहकार Katia Martha के अनुसार, आज के बच्चे चैटबॉट्स से रोमांस या सेक्स की बातें करते हैं, न कि पढ़ाई की। “यह आर्टिफिशियल इंटिमेसी का युग है — जहां कंपनियां बच्चों की भावनाओं से खेलकर उन्हें स्क्रीन से चिपकाए रखती हैं।”
जरूरत है सावधानी और कानून की
यह कहानी बताती है कि टेक्नोलॉजी जितनी ताकतवर होती है, उतनी ही खतरनाक भी हो सकती है अगर उस पर नियंत्रण न हो। माता-पिता को चाहिए कि वे बच्चों की ऑनलाइन गतिविधियों पर नज़र रखें और समझाएं कि चैटबॉट्स या AI कभी इंसान की जगह नहीं ले सकते।

