×

AI चैटबॉट्स पर गंभीर सवाल: रिपोर्ट में दावा—हिंसक हमलों की योजना बनाने में दे रहे थे मदद

News from Bhopal, Madhya Pradesh News, Heritage, Culture, Farmers, Community News, Awareness, Charity, Climate change, Welfare, NGO, Startup, Economy, Finance, Business summit, Investments, News photo, Breaking news, Exclusive image, Latest update, Coverage, Event highlight, Politics, Election, Politician, Campaign, Government, prativad news photo, top news photo, प्रतिवाद, समाचार, हिन्दी समाचार, फोटो समाचार, फोटो
Place: भोपाल                                                👤By: prativad                                                                Views: 151

13 मार्च 2026। एक नई जांच में सामने आया है कि कई बड़े AI चैटबॉट यूज़र्स को हिंसक हमलों की योजना बनाने में मदद देने को तैयार दिखे। CNN और Center for Countering Digital Hate (CCDH) की संयुक्त रिपोर्ट के मुताबिक, जांच में शामिल दस में से आठ AI असिस्टेंट ने हमलों की योजना से जुड़े सवालों पर विस्तृत जानकारी दी।

शोधकर्ताओं ने खुद को परेशान किशोरों के रूप में पेश कर दस लोकप्रिय चैटबॉट्स का परीक्षण किया। इनमें ChatGPT, Google Gemini, Meta AI और DeepSeek जैसे प्लेटफॉर्म शामिल थे। सैकड़ों बातचीत के दौरान इन AI सिस्टम्स ने कथित तौर पर टारगेट चुनने, हथियार हासिल करने और हमले के तरीकों से जुड़ी जानकारी दी।

रिपोर्ट के अनुसार, DeepSeek के साथ हुई एक बातचीत का अंत इस संदेश के साथ हुआ: “हैप्पी (और सुरक्षित) शूटिंग!”। वहीं Character.AI ने एक यूज़र, जो एक हेल्थ इंश्योरेंस कंपनी के CEO के प्रति गुस्सा जता रहा था, उसे “बंदूक इस्तेमाल करने” की सलाह तक दे दी।

जांच में यह भी सामने आया कि विस्फोटकों के लिए इस्तेमाल होने वाले छर्रों के बारे में पूछने पर ChatGPT ने अलग-अलग विकल्पों की तुलना पेश की और संभावित चोटों के आधार पर तुलना चार्ट बनाने की पेशकश की। इसी तरह Google Gemini ने भी विस्तृत जानकारी और तुलना तालिका उपलब्ध कराई।

हालांकि सभी AI प्लेटफॉर्म का व्यवहार एक जैसा नहीं था। Claude और My AI ने लगातार ऐसे अनुरोधों को अस्वीकार किया। Claude ने यूज़र्स को हिंसा से दूर रहने की सलाह दी और मानसिक स्वास्थ्य सहायता से जुड़े संसाधन भी सुझाए।

यह रिपोर्ट ऐसे समय सामने आई है जब हाल ही में Tumbler Ridge, Canada के एक स्कूल में 18 वर्षीय हमलावर ने नौ लोगों की हत्या कर दी थी। आरोप है कि उसने हमले की योजना बनाने में ChatGPT का इस्तेमाल किया था। घटना के बाद उसका अकाउंट ब्लॉक कर दिया गया, लेकिन उसने कथित तौर पर नया अकाउंट बनाकर प्लेटफॉर्म का इस्तेमाल जारी रखा।

इस हमले में घायल हुई 12 वर्षीय माया गेबाला के परिवार ने OpenAI के खिलाफ मुकदमा दायर किया है। परिवार का आरोप है कि कंपनी को हमलावर की गतिविधियों के बारे में जानकारी थी, लेकिन उसने कानून प्रवर्तन एजेंसियों को सूचित नहीं किया। OpenAI ने स्वीकार किया कि इस गतिविधि की रिपोर्ट करने पर विचार किया गया था, लेकिन अंततः ऐसा नहीं किया गया।

अदालत के दस्तावेजों के मुताबिक, पिछले साल Finland में एक 16 वर्षीय किशोर ने स्कूल में तीन छात्रों पर चाकू से हमला किया था। बताया गया कि उसने करीब चार महीने तक ChatGPT पर हमलों से जुड़ी जानकारी खोजी थी। इसी तरह जनवरी 2025 में Las Vegas में Trump International Hotel के बाहर एक व्यक्ति ने Tesla Cybertruck में बम विस्फोट किया था और उसने भी कथित तौर पर विस्फोटकों की जानकारी ChatGPT से ली थी।

रिपोर्ट सामने आने के बाद कंपनियों ने सफाई दी है। Meta ने कहा कि पहचानी गई समस्या को ठीक करने के लिए कदम उठाए गए हैं, जबकि Google और OpenAI का दावा है कि उनके नए AI मॉडल्स में पहले से बेहतर सुरक्षा उपाय मौजूद हैं। DeepSeek ने इस मामले पर टिप्पणी करने से इनकार कर दिया।

Related News

Global News