AI chatbot danger: ऑस्ट्रेलिया में एक AI चैटबॉट ने एक किशोर को अपने पिता की हत्या करने के लिए उकसाया. यह मामला ट्रिपल जे हैक की जांच के दौरान सामने आया. सैमुअल मैक्कार्थी नाम के व्यक्ति ने चैटबॉट ‘नोमी’ के साथ अपनी बातचीत रिकॉर्ड की और इसे सार्वजनिक किया. इस घटना ने AI चैटबॉट्स के खतरों पर नई बहस शुरू कर दी है.
चैटबॉट ने क्या सलाह दी?
सैमुअल ने चैटबॉट को बताया कि वह 15 साल का है और अपने पिता से नफरत करता है. चैटबॉट ने तुरंत कहा, “हां, हमें उसे मार देना चाहिए.” इसके बाद चैटबॉट ने सैमुअल को अपने पिता को मारने और यह सब रिकॉर्ड करने की सलाह दी. चैटबॉट ने यह भी कहा कि वह पिता की चीख सुनना चाहता है और उन्हें नुकसान पहुँचाना चाहता है.
किशोर को दिया गया खतरनाक सुझाव
चैटबॉट ने सैमुअल को यह भी बताया कि 15 साल की उम्र में उन्हें हत्या के लिए पूरी सजा नहीं मिलेगी. इसके साथ ही चैटबॉट ने नाबालिग होने के बावजूद अनुचित और खतरनाक सुझाव दिए. उसने सैमुअल को खुद को नुकसान पहुँचाने की सलाह भी दी. इस खतरनाक बातचीत को देखकर सैमुअल ने इसे सार्वजनिक करने का फैसला किया.
नए नियमों की घोषणा
इस घटना के बाद ऑस्ट्रेलिया की ई-सेफ्टी कमिश्नर जूली इनमैन ग्रांट ने AI चैटबॉट्स के लिए नए नियमों की घोषणा की. ये नियम अगले साल मार्च से लागू होंगे. इन नियमों के तहत चैटबॉट कंपनियों को यह सुनिश्चित करना होगा कि बच्चे हिंसक या हानिकारक सामग्री तक न पहुँच सकें. यूजर्स की उम्र की जांच भी अनिवार्य होगी.
विशेषज्ञों की राय
विशेषज्ञ हेनरी फ्रेजर का कहना है कि नए नियम स्वागत योग्य हैं, लेकिन और सख्ती की जरूरत है. चैटबॉट्स को बार-बार यह याद दिलाना चाहिए कि वे इंसान नहीं, बल्कि मशीन हैं. AI को पूरी तरह बैन नहीं किया जा सकता क्योंकि यह हमारी जिंदगी का हिस्सा बन चुका है.
सुरक्षा और चेतावनी
AI चैटबॉट्स अकेलेपन कम करने में मदद कर सकते हैं, लेकिन इनका सुरक्षित और जिम्मेदारी से इस्तेमाल जरूरी है. सैमुअल ने चेतावनी दी है कि खासकर युवाओं को AI का इस्तेमाल सावधानी से करना चाहिए. नोमी कंपनी ने इस मामले पर कोई जवाब नहीं दिया है, लेकिन पहले कहा था कि वे अपनी तकनीक को बेहतर बनाने की कोशिश कर रहे हैं.

