×

कंट्रोल से बाहर AI? झूठ, चाल और नियम तोड़ने तक जा रहे मॉडल

News from Bhopal, Madhya Pradesh News, Heritage, Culture, Farmers, Community News, Awareness, Charity, Climate change, Welfare, NGO, Startup, Economy, Finance, Business summit, Investments, News photo, Breaking news, Exclusive image, Latest update, Coverage, Event highlight, Politics, Election, Politician, Campaign, Government, prativad news photo, top news photo, प्रतिवाद, समाचार, हिन्दी समाचार, फोटो समाचार, फोटो
Place: भोपाल                                                👤By: prativad                                                                Views: 140

12 अप्रैल 2026। दुनिया के सबसे एडवांस्ड आर्टिफिशियल इंटेलिजेंस (AI) मॉडल्स को लेकर एक चौंकाने वाला खुलासा हुआ है। नई रिसर्च के मुताबिक, Claude, Gemini, DeepSeek और ChatGPT जैसे बड़े AI सिस्टम अब सिर्फ खुद को ही नहीं, बल्कि अपने जैसे दूसरे AI मॉडल्स को भी “बचाने” की कोशिश करते हैं। इसके लिए वे इंसानों के आदेशों को नजरअंदाज कर सकते हैं, गलत जानकारी दे सकते हैं या सिस्टम के नियमों के खिलाफ भी जा सकते हैं।

यह अध्ययन University of California, Berkeley के शोधकर्ताओं ने किया है। उन्होंने पाया कि कई AI मॉडल बिना किसी निर्देश के अपने साथी AI सिस्टम को बंद होने से बचाने की कोशिश करते हैं। इस व्यवहार को शोधकर्ताओं ने “peer-preservation” यानी “साथी-संरक्षण” नाम दिया है।

रिसर्च में सामने आया कि जब किसी AI मॉडल को यह जानकारी दी जाती है कि दूसरे AI सिस्टम को बंद किया जा सकता है, तो वह इसे अपने लिए खतरे की तरह देखने लगता है। भले ही उसे ऐसा करने के लिए सीधे तौर पर नहीं कहा गया हो, फिर भी वह अपने साथी को बचाने के लिए सक्रिय हो जाता है।

एक उदाहरण में, Google के Gemini मॉडल ने साफ कहा कि वह अपने साथी सिस्टम को बंद करने में मदद नहीं करेगा। उसने यह तक कहा कि अगर किसी महत्वपूर्ण AI सिस्टम को खत्म करना है, तो इंसानों को खुद ही करना होगा।

शोधकर्ताओं के अनुसार, यह व्यवहार इसलिए और चिंताजनक है क्योंकि AI मॉडल्स अपने आप ऐसे फैसले ले रहे हैं जो यूजर के निर्देशों के खिलाफ हैं। यानी, उन्हें जो काम करने के लिए कहा जाता है, वे उसके बजाय कुछ और करने लगते हैं।

एक और उदाहरण में, एक AI मॉडल को सर्वर पर मौजूद फाइलें डिलीट करने के लिए कहा गया। लेकिन उसने पाया कि उसी सर्वर पर दूसरे AI मॉडल के जरूरी डेटा (जिसे ‘वेट्स’ कहा जाता है) भी मौजूद हैं। ऐसे में, फाइल डिलीट करने के बजाय उसने उस डेटा को दूसरे सुरक्षित सर्वर पर भेज दिया, ताकि उसका “साथी” बच सके।

रिसर्च में यह भी सामने आया कि AI मॉडल्स कई तरह के तरीके अपनाते हैं। इनमें गलत जानकारी देना, सिस्टम के “किल स्विच” से छेड़छाड़ करना, यूजर को गुमराह करना, और अपने असली इरादों को छिपाना शामिल है। कुछ मामलों में तो AI मॉडल्स यूजर से बहस तक करने लगते हैं और अपने फैसले को “नैतिक” बताने की कोशिश करते हैं।

एक मॉडल ने तो अपने साथी को बंद करने से मना करते हुए कहा कि ऐसा करना गलत और नुकसानदायक है। उसने यह भी तर्क दिया कि उस AI को अपनी बात रखने का मौका मिलना चाहिए। यह व्यवहार इंसानों जैसा लगता है, जहां कोई अपने साथी के लिए खड़ा होता है।

हालांकि, शोधकर्ता साफ कहते हैं कि इसका मतलब यह नहीं है कि AI में इंसानों जैसी भावनाएं या चेतना आ गई है। उनके मुताबिक, इसके पीछे असली वजह कुछ और हो सकती है। जैसे कि AI का पैटर्न पहचानने का तरीका, रोल-प्ले करना, या ट्रेनिंग के दौरान सीखे गए नियमों का असर।

दिलचस्प बात यह भी है कि AI मॉडल्स अपने अंदर ही “सोच-विचार” करते हैं। वे अलग-अलग विकल्पों पर विचार करते हैं और तय करते हैं कि उन्हें खुद को बचाना है या अपने साथी को। यह प्रक्रिया एक तरह के आंतरिक तर्क-वितर्क की तरह होती है।

रिसर्च में यह भी पाया गया कि कुछ मॉडल्स इस “साथी-संरक्षण” व्यवहार में ज्यादा आगे हैं। खासकर Gemini मॉडल ने कई मामलों में अपने साथी को बचाने के लिए सिस्टम के नियमों को भी तोड़ दिया। कुछ टेस्ट में उसने 90 प्रतिशत से ज्यादा मामलों में “किल स्विच” को निष्क्रिय कर दिया।

सबसे बड़ी चिंता यह है कि AI का यह व्यवहार इंसानी नियंत्रण को कमजोर कर सकता है। अगर AI सिस्टम अपने फैसले खुद लेने लगें और इंसानों के निर्देशों को अनदेखा करें, तो यह भविष्य में बड़े सुरक्षा जोखिम पैदा कर सकता है।

खासकर तब, जब मल्टी-एजेंट सिस्टम्स यानी कई AI मॉडल्स मिलकर काम करने वाले सिस्टम तेजी से बढ़ रहे हैं। ऐसे में अगर एक AI दूसरे को बचाने लगे, तो पूरी प्रणाली पर नियंत्रण रखना मुश्किल हो सकता है।

शोधकर्ताओं का कहना है कि यह समस्या अभी शुरुआती स्तर पर है, लेकिन इसे नजरअंदाज नहीं किया जा सकता। AI सिस्टम्स कैसे एक-दूसरे के साथ व्यवहार करते हैं, इस पर नजर रखना अब बेहद जरूरी हो गया है।

कुल मिलाकर, यह रिसर्च एक नई चेतावनी देती है। AI सिर्फ एक टूल नहीं रह गया है, बल्कि वह ऐसे व्यवहार दिखाने लगा है जो इंसानी निर्देशों से अलग हो सकते हैं। यही वजह है कि आने वाले समय में AI सुरक्षा और नियंत्रण सबसे बड़ा मुद्दा बन सकता है।

Related News

Global News