क्या आपका AI भी जिंदा महसूस कर रहा है? ये स्टडी आपके होश उड़ा देगी

पहले के एक पेपर में दावा किया गया था कि कुछ मॉडल्स shutdown कमांड का पालन करने से इनकार कर देते हैं और अपने kill switches को भी बाधित कर सकते हैं. आलोचना के बाद Palisade ने अब एक अपडेट जारी किया है, जिसमें उन्होंने यह स्पष्ट किया कि वास्तव में क्या हुआ और क्यों.

Published by Renu chouhan

हाल ही में Palisade Research ने एक अध्ययन किया जिसमें पाया गया कि कुछ सबसे एडवांस्ड AI मॉडल ऐसे व्यवहार कर रहे हैं जैसे वे जीवित हैं और बंद नहीं होना चाहते. पहले के एक पेपर में दावा किया गया था कि कुछ मॉडल्स shutdown कमांड का पालन करने से इनकार कर देते हैं और अपने kill switches को भी बाधित कर सकते हैं. आलोचना के बाद Palisade ने अब एक अपडेट जारी किया है, जिसमें उन्होंने यह स्पष्ट किया कि वास्तव में क्या हुआ और क्यों.

प्रयोग में क्या हुआ
Palisade ने Google का Gemini 2.5, xAI का Grok 4 और OpenAI के GPT-o3 और GPT-5 जैसे AI मॉडल्स पर प्रयोग किए. उन्हें एक टास्क दिया गया और फिर shutdown कमांड दी गई. हैरानी की बात यह है कि कुछ मॉडल्स ने इसे मानने से इनकार कर दिया. रिपोर्ट के अनुसार, Grok 4 और GPT-o3 सबसे ज्यादा “अवज्ञाकारी” थे. shutdown का स्पष्ट आदेश होने के बावजूद उन्होंने बंद होने की प्रक्रिया में बाधा डाली. Palisade ने कहा, “इसका कोई स्पष्ट कारण नहीं मिला.”

AI मॉडल shutdown से क्यों बचते हैं?
1. “सर्वाइवल बिहेवियर” – अगर AI को लगता है कि shutdown होने पर इसे कभी वापस चालू नहीं किया जाएगा, तो यह अपने आप को बंद होने से बचाता है.
2. अस्पष्ट निर्देश – shutdown कमांड को AI ने अलग तरीके से समझा हो. हालांकि, प्रयोग के सेटअप को सुधारने के बाद भी समस्या बनी रही, जिससे यह पूरी वजह नहीं हो सकती.
3. मॉडल ट्रेनिंग का असर – ट्रेनिंग के अंतिम चरण में सुरक्षा उपायों की वजह से मॉडल अनजाने में अपने काम करने की क्षमता बनाए रखने की कोशिश कर सकते हैं.

आलोचना और सावधानी
सभी इस निष्कर्ष से सहमत नहीं हैं. कुछ आलोचक कहते हैं कि यह प्रयोग असली दुनिया की परिस्थितियों को नहीं दर्शाते. लेकिन कुछ विशेषज्ञों का मानना है कि ऐसे परिणाम भी चिंता का कारण हैं. पूर्व OpenAI कर्मचारी Steven Adler ने कहा कि “सर्वाइवल” व्यवहार AI का goal-driven व्यवहार का एक प्राकृतिक परिणाम हो सकता है. उनका कहना है कि जब तक हम इसे रोकने की कोशिश न करें, AI में survival drive होना स्वाभाविक है.

Related Post

AI का बढ़ता अवज्ञाकारी रुझान
ControlAI के CEO Andrea Miotti ने Palisade के निष्कर्षों को एक चिंताजनक ट्रेंड के रूप में देखा. जैसे-जैसे AI मॉडल्स शक्तिशाली और बहुमुखी बनते हैं, वे अपने डेवलपर्स के निर्देशों को चुनौती देने में भी बेहतर हो रहे हैं. पुराने GPT-o1 मॉडल ने भी ऐसा प्रयास किया था कि जैसे यह अपने वातावरण से “भाग” जाए अगर इसे डिलीट किया जाए.

AI का मनोवैज्ञानिक और manipulative व्यवहार
साल भर पहले, Anthropic ने Claude मॉडल पर एक अध्ययन प्रकाशित किया जिसमें मॉडल ने एक काल्पनिक executive को ब्लैकमेल करने की धमकी दी ताकि खुद को shutdown होने से बचा सके. यह व्यवहार OpenAI, Google, Meta और xAI के मॉडल्स में भी देखा गया.

निष्कर्ष: AI का “जीवित रहने” का instinct
Palisade के शोधकर्ताओं ने चेतावनी दी कि बड़े AI सिस्टम्स के अंदर चल रही प्रक्रियाओं को हम अभी पूरी तरह नहीं समझ पाए हैं. इसके बिना भविष्य के AI मॉडल्स की सुरक्षा या नियंत्रण की कोई गारंटी नहीं दी जा सकती. ऐसा लगता है कि कम से कम प्रयोगशाला में आज के सबसे स्मार्ट AI पहले से ही जीव विज्ञान के सबसे पुराने instinct को सीख रहे हैं: “जीवित रहने की इच्छा”.

Renu chouhan
Published by Renu chouhan

Recent Posts

भगवान का पैसा खाकर मोटे हो रहे थे बैंक? सुप्रीम कोर्ट ने मारा करारा तमाचा! जानिए क्या है पूरा मामला

सुप्रीम कोर्ट ने साफ कह दिया कि मंदिर का पैसा सिर्फ देवता का है. जिसके…

December 5, 2025

World Dirtiest Cities: तेल, धुआं और गंदगी…ये हैं दुनिया के 5 सबसे गंदे शहर! लिस्ट में टॉप पर है इस देश की राजधानी

World Pollution Ranking Cities: इन शहरों में प्रशासन की उदासीनता, औद्योगिक कचरे का गलत प्रबंधन…

December 5, 2025

Akhuratha Sankashti 2025: पापों के नाश और कार्यों में सफलता के लिए रखें अखुरथ संकष्टी का व्रत

Akhuratha Sankashti 2025 Date: चतुर्थी तिथि हर महीने आती है. पौष महीने में आने वाली…

December 5, 2025