×

आम लोगों के लिए नहीं: Anthropic का नया AI मॉडल ‘बहुत खतरनाक’, सीमित दायरे में ही होगा इस्तेमाल

News from Bhopal, Madhya Pradesh News, Heritage, Culture, Farmers, Community News, Awareness, Charity, Climate change, Welfare, NGO, Startup, Economy, Finance, Business summit, Investments, News photo, Breaking news, Exclusive image, Latest update, Coverage, Event highlight, Politics, Election, Politician, Campaign, Government, prativad news photo, top news photo, प्रतिवाद, समाचार, हिन्दी समाचार, फोटो समाचार, फोटो
Place: भोपाल                                                👤By: prativad                                                                Views: 117

11 अप्रैल 2026। अमेरिका की AI कंपनी Anthropic ने एक ऐसा नया मॉडल विकसित किया है, जिसे लेकर खुद कंपनी ही सतर्क नजर आ रही है। रिपोर्ट्स के मुताबिक, कंपनी का कहना है कि यह AI इतना शक्तिशाली है कि इसे फिलहाल आम लोगों के लिए जारी करना सुरक्षित नहीं होगा।

कंपनी ने ‘Claude Mythos Preview’ नाम के इस मॉडल पर अमेरिकी सरकार के साथ बातचीत शुरू कर दी है। अधिकारियों के अनुसार, यह AI पारंपरिक मॉडलों से कहीं ज्यादा उन्नत है और जटिल सुरक्षा चुनौतियों को समझने और उनका समाधान निकालने में सक्षम है।

यह घटनाक्रम ऐसे समय सामने आया है जब पिछले महीने अमेरिकी राष्ट्रपति Donald Trump ने सरकारी एजेंसियों में Anthropic के AI के इस्तेमाल पर छह महीने का प्रतिबंध लगाया था। उन्होंने कंपनी पर राष्ट्रीय सुरक्षा को जोखिम में डालने और पेंटागन पर दबाव बनाने जैसे गंभीर आरोप लगाए थे। इसके बाद अमेरिकी रक्षा विभाग ने OpenAI के साथ समझौता कर उसके टूल्स को संवेदनशील सैन्य सिस्टम में इस्तेमाल करने का रास्ता चुना।

इसी बीच, Anthropic को हाल के महीनों में कई तकनीकी चूक का भी सामना करना पड़ा। फरवरी में ‘Claude Mythos’ से जुड़ी गोपनीय जानकारी गलती से लीक हो गई थी, जब हजारों दस्तावेज़ एक सार्वजनिक डेटा कैश में पहुंच गए। वहीं, इसी महीने कंपनी ने अनजाने में अपने ‘Claude AI’ का 5 लाख से ज्यादा लाइनों वाला सीक्रेट कोड भी सार्वजनिक कर दिया, जिसमें कई अनरिलीज्ड फीचर्स और डेवलपर नोट्स शामिल थे। कंपनी ने इसे “मानवीय गलती” बताया।

Anthropic की ‘फ्रंटियर रेड टीम’ के प्रमुख Logan Graham के मुताबिक, नया मॉडल बेहद स्वायत्त है और एक अनुभवी सुरक्षा शोधकर्ता की तरह काम कर सकता है। यह हजारों सॉफ्टवेयर कमजोरियों को पहचानने के साथ-साथ उनके एक्सप्लॉइट्स भी तैयार कर सकता है, जो इसे और अधिक संवेदनशील बनाता है।

कंपनी ने साफ किया है कि ‘Mythos’ मॉडल को फिलहाल केवल चुनिंदा टेक और साइबर सुरक्षा संगठनों तक सीमित रखा जाएगा। जब तक इसके संभावित खतरनाक पहलुओं को नियंत्रित करने के लिए पर्याप्त सुरक्षा उपाय लागू नहीं हो जाते, तब तक इसे आम उपयोग के लिए जारी नहीं किया जाएगा।

इसी रणनीति के तहत Anthropic ने ‘प्रोजेक्ट ग्लासविंग’ नाम की एक इंडस्ट्री पार्टनरशिप शुरू की है। इस पहल में Apple, Amazon, Microsoft, Google और NVIDIA समेत 40 से ज्यादा संगठन शामिल हैं। इसका मकसद इस AI की मदद से महत्वपूर्ण सॉफ्टवेयर सिस्टम्स में मौजूद खामियों की पहचान करना और उन्हें समय रहते ठीक करना है।

कंपनी ने यह भी बताया कि इस मॉडल को बाहरी विशेषज्ञ समूहों और सरकारी एजेंसियों को परीक्षण के लिए दिया गया है, ताकि साइबर सुरक्षा, नियंत्रण खोने के जोखिम और अन्य संभावित खतरों का गहराई से आकलन किया जा सके।

Related News

Global News