क्या आपका AI भी जिंदा महसूस कर रहा है? ये स्टडी आपके होश उड़ा देगी

पहले के एक पेपर में दावा किया गया था कि कुछ मॉडल्स shutdown कमांड का पालन करने से इनकार कर देते हैं और अपने kill switches को भी बाधित कर सकते हैं. आलोचना के बाद Palisade ने अब एक अपडेट जारी किया है, जिसमें उन्होंने यह स्पष्ट किया कि वास्तव में क्या हुआ और क्यों.

Published by Renu chouhan

हाल ही में Palisade Research ने एक अध्ययन किया जिसमें पाया गया कि कुछ सबसे एडवांस्ड AI मॉडल ऐसे व्यवहार कर रहे हैं जैसे वे जीवित हैं और बंद नहीं होना चाहते. पहले के एक पेपर में दावा किया गया था कि कुछ मॉडल्स shutdown कमांड का पालन करने से इनकार कर देते हैं और अपने kill switches को भी बाधित कर सकते हैं. आलोचना के बाद Palisade ने अब एक अपडेट जारी किया है, जिसमें उन्होंने यह स्पष्ट किया कि वास्तव में क्या हुआ और क्यों.

प्रयोग में क्या हुआ
Palisade ने Google का Gemini 2.5, xAI का Grok 4 और OpenAI के GPT-o3 और GPT-5 जैसे AI मॉडल्स पर प्रयोग किए. उन्हें एक टास्क दिया गया और फिर shutdown कमांड दी गई. हैरानी की बात यह है कि कुछ मॉडल्स ने इसे मानने से इनकार कर दिया. रिपोर्ट के अनुसार, Grok 4 और GPT-o3 सबसे ज्यादा “अवज्ञाकारी” थे. shutdown का स्पष्ट आदेश होने के बावजूद उन्होंने बंद होने की प्रक्रिया में बाधा डाली. Palisade ने कहा, “इसका कोई स्पष्ट कारण नहीं मिला.”

AI मॉडल shutdown से क्यों बचते हैं?
1. “सर्वाइवल बिहेवियर” – अगर AI को लगता है कि shutdown होने पर इसे कभी वापस चालू नहीं किया जाएगा, तो यह अपने आप को बंद होने से बचाता है.
2. अस्पष्ट निर्देश – shutdown कमांड को AI ने अलग तरीके से समझा हो. हालांकि, प्रयोग के सेटअप को सुधारने के बाद भी समस्या बनी रही, जिससे यह पूरी वजह नहीं हो सकती.
3. मॉडल ट्रेनिंग का असर – ट्रेनिंग के अंतिम चरण में सुरक्षा उपायों की वजह से मॉडल अनजाने में अपने काम करने की क्षमता बनाए रखने की कोशिश कर सकते हैं.

आलोचना और सावधानी
सभी इस निष्कर्ष से सहमत नहीं हैं. कुछ आलोचक कहते हैं कि यह प्रयोग असली दुनिया की परिस्थितियों को नहीं दर्शाते. लेकिन कुछ विशेषज्ञों का मानना है कि ऐसे परिणाम भी चिंता का कारण हैं. पूर्व OpenAI कर्मचारी Steven Adler ने कहा कि “सर्वाइवल” व्यवहार AI का goal-driven व्यवहार का एक प्राकृतिक परिणाम हो सकता है. उनका कहना है कि जब तक हम इसे रोकने की कोशिश न करें, AI में survival drive होना स्वाभाविक है.

Related Post

AI का बढ़ता अवज्ञाकारी रुझान
ControlAI के CEO Andrea Miotti ने Palisade के निष्कर्षों को एक चिंताजनक ट्रेंड के रूप में देखा. जैसे-जैसे AI मॉडल्स शक्तिशाली और बहुमुखी बनते हैं, वे अपने डेवलपर्स के निर्देशों को चुनौती देने में भी बेहतर हो रहे हैं. पुराने GPT-o1 मॉडल ने भी ऐसा प्रयास किया था कि जैसे यह अपने वातावरण से “भाग” जाए अगर इसे डिलीट किया जाए.

AI का मनोवैज्ञानिक और manipulative व्यवहार
साल भर पहले, Anthropic ने Claude मॉडल पर एक अध्ययन प्रकाशित किया जिसमें मॉडल ने एक काल्पनिक executive को ब्लैकमेल करने की धमकी दी ताकि खुद को shutdown होने से बचा सके. यह व्यवहार OpenAI, Google, Meta और xAI के मॉडल्स में भी देखा गया.

निष्कर्ष: AI का “जीवित रहने” का instinct
Palisade के शोधकर्ताओं ने चेतावनी दी कि बड़े AI सिस्टम्स के अंदर चल रही प्रक्रियाओं को हम अभी पूरी तरह नहीं समझ पाए हैं. इसके बिना भविष्य के AI मॉडल्स की सुरक्षा या नियंत्रण की कोई गारंटी नहीं दी जा सकती. ऐसा लगता है कि कम से कम प्रयोगशाला में आज के सबसे स्मार्ट AI पहले से ही जीव विज्ञान के सबसे पुराने instinct को सीख रहे हैं: “जीवित रहने की इच्छा”.

Renu chouhan
Published by Renu chouhan

Recent Posts

संबल में सनसनी! बरी होकर घर लौटा युवक मिला मृत, परिवार ने जताई हत्या की आशंका

Sambhal news: संभल में दो दिन पहले ही युवक जेल से छूटकर आया था. रात…

April 20, 2026

एक दुल्हन, कई पति! आज भी जिंदा है ‘पांचाली’ प्रथा, एक साथ कैसे गुजारते हैं दिन-रात?

Humla Nyinba Community: भारत के एक पड़ोसी देश में न्यिनबा समुदाय आज तक पांचाली प्रथा…

April 20, 2026

Dwidvadash Drishti Yoga: 8 मई को बनेगा खास योग! शनि-बुध की युति से इन राशियों की चमकेगी किस्मत

Dwidvadash Drishti Yoga: 8 मई 2026 को बनने वाला शनि-बुध का द्विद्वादश दृष्टि योग खास माना…

April 20, 2026