आर्टिफिशियल इंटेलिजेंस (AI) आज हर क्षेत्र में क्रांति ला रही है- लेकिन क्या यह वैज्ञानिक सोच में इंसानों की बराबरी कर पाई है? हाल ही में IIT दिल्ली और जर्मनी की Friedrich Schiller University Jena (FSU Jena) के शोधकर्ताओं ने एक चौंकाने वाला खुलासा किया है. उनके अनुसार, आज के सबसे उन्नत AI मॉडल्स साधारण वैज्ञानिक कार्यों में तो अच्छे हैं, लेकिन जब बात वास्तविक वैज्ञानिक तर्क (scientific reasoning) की आती है, तो वे असफल हो जाते हैं. यह अध्ययन प्रतिष्ठित जर्नल Nature Computational Science में प्रकाशित हुआ है. इसमें पाया गया कि मौजूदा AI मॉडल्स शोध के शुरुआती स्तर पर उपयोगी हो सकते हैं, लेकिन अगर बिना मानव निगरानी के उपयोग किए जाएं तो ये वैज्ञानिक रिसर्च के लिए जोखिमपूर्ण साबित हो सकते हैं.
IIT दिल्ली और FSU Jena की संयुक्त रिसर्च
इस शोध का नेतृत्व IIT दिल्ली के एसोसिएट प्रोफेसर एन. एम. अनुप कृष्णन और FSU Jena के प्रोफेसर केविन माइक जब्लोंका ने किया. दोनों वैज्ञानिकों की टीम ने मिलकर एक नया बेंचमार्क तैयार किया है- जिसका नाम है “MaCBench”. यह अब तक का पहला ऐसा टूल है जो यह जांचता है कि AI मॉडल्स असली दुनिया के वैज्ञानिक कार्यों, जैसे केमिस्ट्री और मटेरियल साइंस, को कितनी सटीकता से समझते हैं.
साधारण कार्यों में सफलता, लेकिन असली विज्ञान में नाकामी
रिसर्च के नतीजे हैरान करने वाले थे. AI मॉडल्स ने जहां उपकरण पहचान (equipment identification) जैसे आसान कार्यों में लगभग 100% तक सटीकता दिखाई, वहीं जटिल वैज्ञानिक कार्यों में वे बुरी तरह असफल रहे. ऐसे कार्यों में शामिल हैं-
स्पेशल रीजनिंग (Spatial reasoning) यानी किसी प्रयोगशाला में चीजों के आपसी स्थान का सही विश्लेषण, मल्टी-स्टेप लॉजिकल इंफरेंस (Multi-step logical inference) यानी कई स्तरों पर तर्क करना, और विभिन्न डेटा स्रोतों से जानकारी जोड़ना (Information synthesis across modalities). अनूप कृष्णन के अनुसार, “यह शोध वैज्ञानिक समुदाय के लिए एक चेतावनी है. ये मॉडल्स डेटा प्रोसेसिंग में तो बेहद सक्षम हैं, लेकिन इनमें अभी स्वतंत्र वैज्ञानिक सोच (Autonomous reasoning) की क्षमता नहीं है.”
सेफ्टी और तर्क की कमी: सबसे बड़ा खतरा
शोध के दौरान टीम ने पाया कि लैब सेफ्टी (Lab Safety) से जुड़े कार्यों में AI मॉडल्स बेहद कमजोर हैं. जब इन्हें लैब उपकरण पहचानने को कहा गया, तो ये 77% तक सही निकले. लेकिन जब इन्हें सेफ्टी हज़र्ड्स (Safety hazards) पहचानने को कहा गया, तो सटीकता सिर्फ 46% रही. यह अंतर दिखाता है कि AI मॉडल्स सिर्फ चीज़ों को पहचान सकते हैं, लेकिन उनसे जुड़े जोखिम या खतरे को नहीं समझते.
प्रोफेसर जब्लोंका ने कहा, “AI मॉडल्स अभी उस अनुभव और समझ की जगह नहीं ले सकते जो किसी वैज्ञानिक के पास प्रयोगशाला में होती है. वैज्ञानिकों को इन सीमाओं को समझे बिना AI को प्रयोगशाला में पूरी तरह शामिल नहीं करना चाहिए.”
टेक्स्ट बेहतर समझता है, इमेज नहीं
टीम ने यह भी पाया कि AI मॉडल्स जब किसी जानकारी को टेक्स्ट (Text) के रूप में देखते हैं, तो उनका प्रदर्शन बेहतर होता है. लेकिन जब वही जानकारी तस्वीर (Image) के रूप में दी जाती है, तो मॉडल्स गड़बड़ा जाते हैं. इससे साबित होता है कि मौजूदा AI मॉडल्स में “मल्टीमोडल इंटीग्रेशन” यानी टेक्स्ट और इमेज दोनों को एक साथ समझने की क्षमता अधूरी है- जो वैज्ञानिक शोध के लिए बेहद जरूरी है.
भविष्य के लिए क्या मायने हैं ये नतीजे
यह रिसर्च सिर्फ केमिस्ट्री या मटेरियल साइंस तक सीमित नहीं है. इसका असर संपूर्ण वैज्ञानिक अनुसंधान पर पड़ सकता है. अध्ययन से यह संकेत मिलता है कि अगर हमें AI को एक भरोसेमंद वैज्ञानिक सहायक बनाना है, तो उसे सिर्फ पैटर्न पहचानने (Pattern Matching) से आगे ले जाकर वास्तविक समझ विकसित करने (Genuine Understanding) पर ध्यान देना होगा. IIT दिल्ली के पीएचडी स्कॉलर इंद्रजीत मंडल के अनुसार, “AI मॉडल्स साधारण कार्यों में मददगार तो हैं, लेकिन जटिल निर्णयों या सुरक्षा से जुड़े फैसलों में मानव निगरानी (Human oversight) जरूरी है. आने वाले समय में हमें ऐसे फ्रेमवर्क की जरूरत होगी जो मानव और AI के बीच सहयोग (Human-AI collaboration) को मजबूत करें.”