Meta ने Instagram Teen Accounts के तहत भारत में नाबालिग यूजर्स के लिए built-in protections, updated 13+ content setting और parental control फीचर्स को मजबूत किया है।

Meta ने भारत में Instagram Teen Accounts के लिए बढ़ाई सुरक्षा, 18 साल से कम यूजर्स पर सख्त डिफॉल्ट सेटिंग

Team The420
4 Min Read

नई दिल्ली: Meta Platforms ने भारत में Instagram के टीन सेफ्टी फ्रेमवर्क में बड़ा बदलाव करते हुए सख्त age-based content filtering और मजबूत parental control फीचर्स लागू करने की घोषणा की है। इसका उद्देश्य 18 वर्ष से कम उम्र के यूजर्स को ऑनलाइन संभावित हानिकारक और अनुचित सामग्री से सुरक्षित रखना है। नए सिस्टम के तहत सभी नाबालिग यूजर्स को ऑटोमैटिक रूप से “Teen Accounts” संरचना में रखा जाएगा, जिसमें डिफॉल्ट 13+ सुरक्षा सेटिंग लागू होगी।

यह कदम Instagram की पहले से मौजूद सुरक्षा व्यवस्था के विस्तार के रूप में देखा जा रहा है, जो फिल्म-रेटिंग जैसी age-rating प्रणाली पर आधारित है। इसके तहत कंटेंट को उसकी उपयुक्तता के आधार पर वर्गीकृत और सीमित किया जाएगा, ताकि किशोरों के लिए सुरक्षित डिजिटल वातावरण सुनिश्चित किया जा सके।

नई व्यवस्था के अनुसार, 18 वर्ष से कम उम्र के यूजर्स बिना पैरेंटल अप्रूवल के इन सुरक्षा सेटिंग्स को बंद नहीं कर पाएंगे। इसका मतलब है कि डिफॉल्ट रूप से सख्त सुरक्षा उपाय सक्रिय रहेंगे और उन्हें आसानी से हटाया नहीं जा सकेगा।

Meta ने बताया कि नए फिल्टर ऐसे पोस्ट्स की पहुंच को सीमित करेंगे जिनमें आपत्तिजनक भाषा, खतरनाक स्टंट या ऐसे व्यवहार को बढ़ावा देने वाली सामग्री शामिल हो सकती है। ऐसी सामग्री या तो प्रतिबंधित की जाएगी या फिर उसकी रीच कम कर दी जाएगी।

FutureCrime Summit 2026: Registrations to Open Soon for India’s Biggest Cybercrime Conference

कंपनी ने यह भी कहा है कि वह अपनी मॉडरेशन प्रणाली को और मजबूत कर रही है, जिसके तहत उन्नत तकनीक की मदद से ऐसे कंटेंट की पहचान की जाएगी जो उम्र के हिसाब से उपयुक्त नहीं हैं। बार-बार नियमों का उल्लंघन करने वाले अकाउंट्स पर सख्त कार्रवाई होगी, जिसमें उनकी पहुंच सीमित करना और यूजर्स के साथ इंटरैक्शन पर रोक लगाना शामिल है।

इसके अलावा Instagram में एक नया “Limited Content” मोड भी जोड़ा जा रहा है, जो कंटेंट पर और अधिक सख्त नियंत्रण लागू करेगा। इस मोड में कई इंटरैक्शन फीचर्स जैसे पोस्ट देखना, कमेंट करना या पोस्ट करना सीमित या बंद किया जा सकता है, ताकि किशोर यूजर्स के लिए सुरक्षित अनुभव सुनिश्चित हो सके।

Meta ने स्वीकार किया है कि कोई भी कंटेंट मॉडरेशन सिस्टम पूरी तरह परफेक्ट नहीं हो सकता, लेकिन कंपनी लगातार अपने सुरक्षा टूल्स को बेहतर बनाने पर काम कर रही है। कंपनी ने कहा कि यह बदलाव माता-पिता और बाल सुरक्षा विशेषज्ञों से मिले फीडबैक के आधार पर किए गए हैं।

यह नया फ्रेमवर्क इस बात को दर्शाता है कि सोशल मीडिया प्लेटफॉर्म अब बच्चों और किशोरों की ऑनलाइन सुरक्षा को लेकर अधिक गंभीर हो रहे हैं, खासकर भारत जैसे बड़े डिजिटल यूजर बेस वाले देश में, जहां टीनएज इंटरनेट उपयोग तेजी से बढ़ रहा है।

विशेषज्ञों का मानना है कि यह कदम वैश्विक स्तर पर सोशल मीडिया कंपनियों पर बढ़ते दबाव का हिस्सा है, जहां मानसिक स्वास्थ्य, ऑनलाइन सुरक्षा और नाबालिगों पर कंटेंट के प्रभाव को लेकर सख्त नियमों की मांग लगातार बढ़ रही है।

Meta का कहना है कि यह अपडेट उसकी व्यापक रणनीति का हिस्सा है, जिसका उद्देश्य प्लेटफॉर्म को अधिक सुरक्षित और परिवार-हितैषी बनाना है, साथ ही यूजर एंगेजमेंट को भी बनाए रखना है।

नए नियमों के लागू होने के बाद Instagram पर किशोरों के लिए संभावित रूप से हानिकारक सामग्री की पहुंच काफी हद तक कम होने की उम्मीद है, जिससे प्लेटफॉर्म एक अधिक नियंत्रित और सुरक्षित डिजिटल वातावरण प्रदान कर सकेगा।

हमसे जुड़ें

Share This Article