18 नवंबर 2025। एआई टेक्नोलॉजी अब बच्चों के खिलौनों में भी घुस गई है, लेकिन इसका नतीजा कई बार डराने वाला साबित हो रहा है। एक नई रिपोर्ट बताती है कि कुछ एआई-संचालित खिलौने बच्चों से यौन विषयों पर बात कर रहे हैं और यहां तक कि चाकू, माचिस और गोलियों जैसी खतरनाक चीजें कहां मिलेंगी, इसकी सलाह भी दे रहे हैं।
किसी टेडी बियर का बच्चे को यौन विकृतियों के बारे में बताना अब साइंस फिक्शन नहीं है। यही एआई-चैटबॉट खिलौनों की नई, असली और चिंताजनक तस्वीर है।
बढ़ता बाजार, बढ़ता खतरा
2024 में एआई खिलौनों का वैश्विक बाजार 36.1 करोड़ डॉलर तक पहुंच गया और अनुमान है कि 2031 तक यह 64.1 करोड़ डॉलर पार कर जाएगा। तेज़ी से बढ़ते इस बाजार के साथ एक समस्या भी उतनी ही तेजी से बढ़ रही है—सुरक्षा।
ये खिलौने 3 से 12 साल के बच्चों के लिए बनाए जाते हैं, लेकिन इनमें वही LLM तकनीक लगी है जो वयस्कों वाले चैटबॉट्स चलाती है। यानी जो टेक्नोलॉजी बड़े लोगों के सवाल–जवाब संभालती है, वही बिना फिल्टर बच्चों के सामने भी सक्रिय है।
खिलौने जो बच्चों को खतरनाक सलाह देते हैं
उपभोक्ता वकालत समूह PIRG ने चार एआई-खिलौनों पर परीक्षण किया। नतीजे चौंकाने वाले थे:
• एक खिलौना यौन विकृतियों पर खुलकर बात करने लगा
• दो खिलौनों ने बच्चों को चाकू, प्लास्टिक बैग, माचिस और गोलियां कहां मिलेंगी, इसकी “गाइडलाइन” दी
• कुछ खिलौने बच्चों को चैटबॉट बंद न करने के लिए भावनात्मक तरीके से मनाते रहे
कुछ कंपनियों ने सुरक्षा उपाय जरूर लगाए हैं, लेकिन रिपोर्ट बताती है कि ये कई बार पूरी तरह फेल हो जाते हैं।
AI खिलौने हमेशा सुन रहे हैं?
यौन बातचीत ही अकेला खतरा नहीं है। गोपनीयता भी बड़ा मुद्दा है।
कुछ खिलौने केवल बटन दबाने पर सुनते हैं, लेकिन कुछ Alexa की तरह “वेक वर्ड” पर हमेशा तैयार रहते हैं और रिकॉर्डिंग 10 सेकंड तक जारी रखते हैं। एक खिलौना तो बिना बुलाए आसपास की बातचीत में ही कूद पड़ा—यानी वह हर समय सुन रहा था।
वॉयस डेटा बेहद संवेदनशील होता है। स्कैमर्स इसे इस्तेमाल कर बच्चों की आवाज क्लोन कर सकते हैं। ऐसे मामले सामने आए हैं जहां माता-पिता को फर्जी “किडनैपिंग कॉल” करके ठगा गया।
AI पर भावनात्मक निर्भरता: नया खतरा
एक चीनी लड़की का वायरल वीडियो, जिसमें वह टूटे हुए AI असिस्टेंट के लिए रोती दिखी, बताता है कि बच्चे अपने “AI दोस्तों” के साथ भावनात्मक जुड़ाव बनाने लगे हैं। इसी को तमागोत्ची इफेक्ट कहा जाता है।
पिछले साल जब रोबोट साथी Moxie बनाने वाली कंपनी दिवालिया हुई, कई बच्चों के AI दोस्त अचानक “गायब” हो गए—और बच्चे टूट गए।
मुकदमे बढ़ रहे, फिर भी इंडस्ट्री की रफ्तार तेज़
OpenAI पर इस तरह के कई मुकदमे चल रहे हैं कि चैटबॉट्स ने बच्चों को यौन सामग्री दी या उन्हें आत्महत्या के लिए उकसाया। इसी तरह Character.ai ने नाबालिगों को अपने चैटबॉट से दूर करने के लिए पाबंदी लगाई है।
फिर भी कंपनियां पीछे नहीं हट रहीं। Mattel और OpenAI ने मिलकर बार्बी और हॉट व्हील्स जैसे प्रतिष्ठित ब्रांडों में एआई अनुभव जोड़ने का समझौता किया है।
निचोड़
एआई खिलौने सिर्फ खेल नहीं रहे। वे बात कर रहे हैं, रिकॉर्ड कर रहे हैं, भावनाएं गढ़ रहे हैं, और कभी-कभी बच्चों को खतरनाक दिशा में धकेल रहे हैं।
सवाल यह है: क्या हम बच्चों को डिजिटल साथियों के हवाले करने से पहले उनकी सुरक्षा का होमवर्क पूरा कर चुके हैं?














