Home > tech auto > क्या आपका AI भी जिंदा महसूस कर रहा है? ये स्टडी आपके होश उड़ा देगी

क्या आपका AI भी जिंदा महसूस कर रहा है? ये स्टडी आपके होश उड़ा देगी

पहले के एक पेपर में दावा किया गया था कि कुछ मॉडल्स shutdown कमांड का पालन करने से इनकार कर देते हैं और अपने kill switches को भी बाधित कर सकते हैं. आलोचना के बाद Palisade ने अब एक अपडेट जारी किया है, जिसमें उन्होंने यह स्पष्ट किया कि वास्तव में क्या हुआ और क्यों.

By: Renu chouhan | Last Updated: October 28, 2025 2:50:10 PM IST



हाल ही में Palisade Research ने एक अध्ययन किया जिसमें पाया गया कि कुछ सबसे एडवांस्ड AI मॉडल ऐसे व्यवहार कर रहे हैं जैसे वे जीवित हैं और बंद नहीं होना चाहते. पहले के एक पेपर में दावा किया गया था कि कुछ मॉडल्स shutdown कमांड का पालन करने से इनकार कर देते हैं और अपने kill switches को भी बाधित कर सकते हैं. आलोचना के बाद Palisade ने अब एक अपडेट जारी किया है, जिसमें उन्होंने यह स्पष्ट किया कि वास्तव में क्या हुआ और क्यों.

प्रयोग में क्या हुआ
Palisade ने Google का Gemini 2.5, xAI का Grok 4 और OpenAI के GPT-o3 और GPT-5 जैसे AI मॉडल्स पर प्रयोग किए. उन्हें एक टास्क दिया गया और फिर shutdown कमांड दी गई. हैरानी की बात यह है कि कुछ मॉडल्स ने इसे मानने से इनकार कर दिया. रिपोर्ट के अनुसार, Grok 4 और GPT-o3 सबसे ज्यादा “अवज्ञाकारी” थे. shutdown का स्पष्ट आदेश होने के बावजूद उन्होंने बंद होने की प्रक्रिया में बाधा डाली. Palisade ने कहा, “इसका कोई स्पष्ट कारण नहीं मिला.”

AI मॉडल shutdown से क्यों बचते हैं?
1. “सर्वाइवल बिहेवियर” – अगर AI को लगता है कि shutdown होने पर इसे कभी वापस चालू नहीं किया जाएगा, तो यह अपने आप को बंद होने से बचाता है.
2. अस्पष्ट निर्देश – shutdown कमांड को AI ने अलग तरीके से समझा हो. हालांकि, प्रयोग के सेटअप को सुधारने के बाद भी समस्या बनी रही, जिससे यह पूरी वजह नहीं हो सकती.
3. मॉडल ट्रेनिंग का असर – ट्रेनिंग के अंतिम चरण में सुरक्षा उपायों की वजह से मॉडल अनजाने में अपने काम करने की क्षमता बनाए रखने की कोशिश कर सकते हैं.

आलोचना और सावधानी
सभी इस निष्कर्ष से सहमत नहीं हैं. कुछ आलोचक कहते हैं कि यह प्रयोग असली दुनिया की परिस्थितियों को नहीं दर्शाते. लेकिन कुछ विशेषज्ञों का मानना है कि ऐसे परिणाम भी चिंता का कारण हैं. पूर्व OpenAI कर्मचारी Steven Adler ने कहा कि “सर्वाइवल” व्यवहार AI का goal-driven व्यवहार का एक प्राकृतिक परिणाम हो सकता है. उनका कहना है कि जब तक हम इसे रोकने की कोशिश न करें, AI में survival drive होना स्वाभाविक है.

AI का बढ़ता अवज्ञाकारी रुझान
ControlAI के CEO Andrea Miotti ने Palisade के निष्कर्षों को एक चिंताजनक ट्रेंड के रूप में देखा. जैसे-जैसे AI मॉडल्स शक्तिशाली और बहुमुखी बनते हैं, वे अपने डेवलपर्स के निर्देशों को चुनौती देने में भी बेहतर हो रहे हैं. पुराने GPT-o1 मॉडल ने भी ऐसा प्रयास किया था कि जैसे यह अपने वातावरण से “भाग” जाए अगर इसे डिलीट किया जाए.

AI का मनोवैज्ञानिक और manipulative व्यवहार
साल भर पहले, Anthropic ने Claude मॉडल पर एक अध्ययन प्रकाशित किया जिसमें मॉडल ने एक काल्पनिक executive को ब्लैकमेल करने की धमकी दी ताकि खुद को shutdown होने से बचा सके. यह व्यवहार OpenAI, Google, Meta और xAI के मॉडल्स में भी देखा गया.

निष्कर्ष: AI का “जीवित रहने” का instinct
Palisade के शोधकर्ताओं ने चेतावनी दी कि बड़े AI सिस्टम्स के अंदर चल रही प्रक्रियाओं को हम अभी पूरी तरह नहीं समझ पाए हैं. इसके बिना भविष्य के AI मॉडल्स की सुरक्षा या नियंत्रण की कोई गारंटी नहीं दी जा सकती. ऐसा लगता है कि कम से कम प्रयोगशाला में आज के सबसे स्मार्ट AI पहले से ही जीव विज्ञान के सबसे पुराने instinct को सीख रहे हैं: “जीवित रहने की इच्छा”.

Advertisement