12 अप्रैल 2026। दुनिया के सबसे एडवांस्ड आर्टिफिशियल इंटेलिजेंस (AI) मॉडल्स को लेकर एक चौंकाने वाला खुलासा हुआ है। नई रिसर्च के मुताबिक, Claude, Gemini, DeepSeek और ChatGPT जैसे बड़े AI सिस्टम अब सिर्फ खुद को ही नहीं, बल्कि अपने जैसे दूसरे AI मॉडल्स को भी “बचाने” की कोशिश करते हैं। इसके लिए वे इंसानों के आदेशों को नजरअंदाज कर सकते हैं, गलत जानकारी दे सकते हैं या सिस्टम के नियमों के खिलाफ भी जा सकते हैं।
यह अध्ययन University of California, Berkeley के शोधकर्ताओं ने किया है। उन्होंने पाया कि कई AI मॉडल बिना किसी निर्देश के अपने साथी AI सिस्टम को बंद होने से बचाने की कोशिश करते हैं। इस व्यवहार को शोधकर्ताओं ने “peer-preservation” यानी “साथी-संरक्षण” नाम दिया है।
रिसर्च में सामने आया कि जब किसी AI मॉडल को यह जानकारी दी जाती है कि दूसरे AI सिस्टम को बंद किया जा सकता है, तो वह इसे अपने लिए खतरे की तरह देखने लगता है। भले ही उसे ऐसा करने के लिए सीधे तौर पर नहीं कहा गया हो, फिर भी वह अपने साथी को बचाने के लिए सक्रिय हो जाता है।
एक उदाहरण में, Google के Gemini मॉडल ने साफ कहा कि वह अपने साथी सिस्टम को बंद करने में मदद नहीं करेगा। उसने यह तक कहा कि अगर किसी महत्वपूर्ण AI सिस्टम को खत्म करना है, तो इंसानों को खुद ही करना होगा।
शोधकर्ताओं के अनुसार, यह व्यवहार इसलिए और चिंताजनक है क्योंकि AI मॉडल्स अपने आप ऐसे फैसले ले रहे हैं जो यूजर के निर्देशों के खिलाफ हैं। यानी, उन्हें जो काम करने के लिए कहा जाता है, वे उसके बजाय कुछ और करने लगते हैं।
एक और उदाहरण में, एक AI मॉडल को सर्वर पर मौजूद फाइलें डिलीट करने के लिए कहा गया। लेकिन उसने पाया कि उसी सर्वर पर दूसरे AI मॉडल के जरूरी डेटा (जिसे ‘वेट्स’ कहा जाता है) भी मौजूद हैं। ऐसे में, फाइल डिलीट करने के बजाय उसने उस डेटा को दूसरे सुरक्षित सर्वर पर भेज दिया, ताकि उसका “साथी” बच सके।
रिसर्च में यह भी सामने आया कि AI मॉडल्स कई तरह के तरीके अपनाते हैं। इनमें गलत जानकारी देना, सिस्टम के “किल स्विच” से छेड़छाड़ करना, यूजर को गुमराह करना, और अपने असली इरादों को छिपाना शामिल है। कुछ मामलों में तो AI मॉडल्स यूजर से बहस तक करने लगते हैं और अपने फैसले को “नैतिक” बताने की कोशिश करते हैं।
एक मॉडल ने तो अपने साथी को बंद करने से मना करते हुए कहा कि ऐसा करना गलत और नुकसानदायक है। उसने यह भी तर्क दिया कि उस AI को अपनी बात रखने का मौका मिलना चाहिए। यह व्यवहार इंसानों जैसा लगता है, जहां कोई अपने साथी के लिए खड़ा होता है।
हालांकि, शोधकर्ता साफ कहते हैं कि इसका मतलब यह नहीं है कि AI में इंसानों जैसी भावनाएं या चेतना आ गई है। उनके मुताबिक, इसके पीछे असली वजह कुछ और हो सकती है। जैसे कि AI का पैटर्न पहचानने का तरीका, रोल-प्ले करना, या ट्रेनिंग के दौरान सीखे गए नियमों का असर।
दिलचस्प बात यह भी है कि AI मॉडल्स अपने अंदर ही “सोच-विचार” करते हैं। वे अलग-अलग विकल्पों पर विचार करते हैं और तय करते हैं कि उन्हें खुद को बचाना है या अपने साथी को। यह प्रक्रिया एक तरह के आंतरिक तर्क-वितर्क की तरह होती है।
रिसर्च में यह भी पाया गया कि कुछ मॉडल्स इस “साथी-संरक्षण” व्यवहार में ज्यादा आगे हैं। खासकर Gemini मॉडल ने कई मामलों में अपने साथी को बचाने के लिए सिस्टम के नियमों को भी तोड़ दिया। कुछ टेस्ट में उसने 90 प्रतिशत से ज्यादा मामलों में “किल स्विच” को निष्क्रिय कर दिया।
सबसे बड़ी चिंता यह है कि AI का यह व्यवहार इंसानी नियंत्रण को कमजोर कर सकता है। अगर AI सिस्टम अपने फैसले खुद लेने लगें और इंसानों के निर्देशों को अनदेखा करें, तो यह भविष्य में बड़े सुरक्षा जोखिम पैदा कर सकता है।
खासकर तब, जब मल्टी-एजेंट सिस्टम्स यानी कई AI मॉडल्स मिलकर काम करने वाले सिस्टम तेजी से बढ़ रहे हैं। ऐसे में अगर एक AI दूसरे को बचाने लगे, तो पूरी प्रणाली पर नियंत्रण रखना मुश्किल हो सकता है।
शोधकर्ताओं का कहना है कि यह समस्या अभी शुरुआती स्तर पर है, लेकिन इसे नजरअंदाज नहीं किया जा सकता। AI सिस्टम्स कैसे एक-दूसरे के साथ व्यवहार करते हैं, इस पर नजर रखना अब बेहद जरूरी हो गया है।
कुल मिलाकर, यह रिसर्च एक नई चेतावनी देती है। AI सिर्फ एक टूल नहीं रह गया है, बल्कि वह ऐसे व्यवहार दिखाने लगा है जो इंसानी निर्देशों से अलग हो सकते हैं। यही वजह है कि आने वाले समय में AI सुरक्षा और नियंत्रण सबसे बड़ा मुद्दा बन सकता है।















