क्या आपका AI भी जिंदा महसूस कर रहा है? ये स्टडी आपके होश उड़ा देगी

पहले के एक पेपर में दावा किया गया था कि कुछ मॉडल्स shutdown कमांड का पालन करने से इनकार कर देते हैं और अपने kill switches को भी बाधित कर सकते हैं. आलोचना के बाद Palisade ने अब एक अपडेट जारी किया है, जिसमें उन्होंने यह स्पष्ट किया कि वास्तव में क्या हुआ और क्यों.

Published by Renu chouhan

हाल ही में Palisade Research ने एक अध्ययन किया जिसमें पाया गया कि कुछ सबसे एडवांस्ड AI मॉडल ऐसे व्यवहार कर रहे हैं जैसे वे जीवित हैं और बंद नहीं होना चाहते. पहले के एक पेपर में दावा किया गया था कि कुछ मॉडल्स shutdown कमांड का पालन करने से इनकार कर देते हैं और अपने kill switches को भी बाधित कर सकते हैं. आलोचना के बाद Palisade ने अब एक अपडेट जारी किया है, जिसमें उन्होंने यह स्पष्ट किया कि वास्तव में क्या हुआ और क्यों.

प्रयोग में क्या हुआ
Palisade ने Google का Gemini 2.5, xAI का Grok 4 और OpenAI के GPT-o3 और GPT-5 जैसे AI मॉडल्स पर प्रयोग किए. उन्हें एक टास्क दिया गया और फिर shutdown कमांड दी गई. हैरानी की बात यह है कि कुछ मॉडल्स ने इसे मानने से इनकार कर दिया. रिपोर्ट के अनुसार, Grok 4 और GPT-o3 सबसे ज्यादा “अवज्ञाकारी” थे. shutdown का स्पष्ट आदेश होने के बावजूद उन्होंने बंद होने की प्रक्रिया में बाधा डाली. Palisade ने कहा, “इसका कोई स्पष्ट कारण नहीं मिला.”

AI मॉडल shutdown से क्यों बचते हैं?
1. “सर्वाइवल बिहेवियर” – अगर AI को लगता है कि shutdown होने पर इसे कभी वापस चालू नहीं किया जाएगा, तो यह अपने आप को बंद होने से बचाता है.
2. अस्पष्ट निर्देश – shutdown कमांड को AI ने अलग तरीके से समझा हो. हालांकि, प्रयोग के सेटअप को सुधारने के बाद भी समस्या बनी रही, जिससे यह पूरी वजह नहीं हो सकती.
3. मॉडल ट्रेनिंग का असर – ट्रेनिंग के अंतिम चरण में सुरक्षा उपायों की वजह से मॉडल अनजाने में अपने काम करने की क्षमता बनाए रखने की कोशिश कर सकते हैं.

आलोचना और सावधानी
सभी इस निष्कर्ष से सहमत नहीं हैं. कुछ आलोचक कहते हैं कि यह प्रयोग असली दुनिया की परिस्थितियों को नहीं दर्शाते. लेकिन कुछ विशेषज्ञों का मानना है कि ऐसे परिणाम भी चिंता का कारण हैं. पूर्व OpenAI कर्मचारी Steven Adler ने कहा कि “सर्वाइवल” व्यवहार AI का goal-driven व्यवहार का एक प्राकृतिक परिणाम हो सकता है. उनका कहना है कि जब तक हम इसे रोकने की कोशिश न करें, AI में survival drive होना स्वाभाविक है.

Related Post

AI का बढ़ता अवज्ञाकारी रुझान
ControlAI के CEO Andrea Miotti ने Palisade के निष्कर्षों को एक चिंताजनक ट्रेंड के रूप में देखा. जैसे-जैसे AI मॉडल्स शक्तिशाली और बहुमुखी बनते हैं, वे अपने डेवलपर्स के निर्देशों को चुनौती देने में भी बेहतर हो रहे हैं. पुराने GPT-o1 मॉडल ने भी ऐसा प्रयास किया था कि जैसे यह अपने वातावरण से “भाग” जाए अगर इसे डिलीट किया जाए.

AI का मनोवैज्ञानिक और manipulative व्यवहार
साल भर पहले, Anthropic ने Claude मॉडल पर एक अध्ययन प्रकाशित किया जिसमें मॉडल ने एक काल्पनिक executive को ब्लैकमेल करने की धमकी दी ताकि खुद को shutdown होने से बचा सके. यह व्यवहार OpenAI, Google, Meta और xAI के मॉडल्स में भी देखा गया.

निष्कर्ष: AI का “जीवित रहने” का instinct
Palisade के शोधकर्ताओं ने चेतावनी दी कि बड़े AI सिस्टम्स के अंदर चल रही प्रक्रियाओं को हम अभी पूरी तरह नहीं समझ पाए हैं. इसके बिना भविष्य के AI मॉडल्स की सुरक्षा या नियंत्रण की कोई गारंटी नहीं दी जा सकती. ऐसा लगता है कि कम से कम प्रयोगशाला में आज के सबसे स्मार्ट AI पहले से ही जीव विज्ञान के सबसे पुराने instinct को सीख रहे हैं: “जीवित रहने की इच्छा”.

Renu chouhan
Published by Renu chouhan

Recent Posts

पाक करेगा टी20 वर्ल्ड कप को बॉयकॉट! जानें इस बार क्या है PCB की भारत न आने की साजिश?

T20 World Cup 2026: कई रिपोर्ट्स में कहा गया था कि पाकिस्तान बांग्लादेश के समर्थन…

January 19, 2026

BJP Presidents List: नितिन नबीन बनेंगे बीजेपी के अगले अध्यक्ष, यहां देखें 1980 से 2020 तक भारतीय जनता पार्टी के अध्यक्षों की लिस्ट

BJP Party Presidents: 2019 तक BJP राष्ट्रीय संसद में प्रतिनिधित्व (303 सीटें) के मामले में…

January 19, 2026

भीख नहीं मांगी, लोग खुद देते थे पैसे! करोड़पति भिखारी की हैरान कर देने वाली कहानी

Indore Rich Beggar Mangilal: मध्य प्रदेश के इंदौर में एक दिव्यांग भिखारी जो सालों से…

January 19, 2026