[gtranslate]
Country

हेट स्पीच को लेकर फिर निशाने पर फेसबुक

फेसबुक एक बार फिर अपनी नीतियों के चलते सुर्ख़ियो में है। अपनी रिब्रांडिंग में लगी दिग्गज सोशल मीडिया कंपनी फेसबुक की मुश्किलें थमने का नाम नहीं ले रही हैं। पिछले कुछ अर्से से फेसबुक पर कई आरोप पहले से ही लग रहे हैं कि अधिक मुनाफा कमाने के लिए फेसबुक फर्जी खबरों से लेकर हेट स्पीच और समाज को धर्म के आधार पर बांटने वाली पोस्ट पर कार्यवाही करने से बचता रहा है।

इसी दौरान फ़ेसबुक के भारत में संचालन को लेकर  वर्ष 2018 से वर्ष 2020 के बीच की तीन आंतरिक रिपोर्टें सामने आई हैं। जिनमें ध्रुवीकरण वाली सामग्री, फेक और अप्रामाणिक मैसेज से लेकर अल्पसंख्यक समुदायों को बदनाम करने वाले कंटेंट की लगातार बढ़ती संख्या की बात का खुलासा किया गया है।

‘द इंडियन एक्सप्रेस’ में छपी ताजा रिपोर्ट के अनुसार, फेसबुक के तत्कालीन उपाध्यक्ष क्रिस कॉक्स ने इस मामले को लेकर वर्ष 2019 में कुछ बैठकें की थीं। बैठक में क्रिस कॉक्स ने कहा कि हेट स्पीच से लेकर समुदाय विशेष के खिलाफ चल रहे आपत्तिजनक कंटेंट को लेकर कोई समस्या नहीं देखी गई है।

फेसबुक के पूर्व  कर्मचारियों ने इससे पहले कंपनी की नीति पर सवाल खड़े करते हुए कहा था कि कंपनी के पास हेट स्पीच को पकड़ने के लिए बेसिक सेट अप तक नहीं है। कर्मचारियों ने फेसबुक से यह भी पूछा था कि इस तरह फेसबुक अल्पसंख्यक समुदाय का भरोसा कैसे हासिल करेगा ?

भारत में हुए वर्ष 2019 के लोकसभा चुनाव से पहले भी हेट स्पीच और ख़राब कंटेंट को लेकर फेसबुक के सामने रिपोर्ट रखी गई थी। इसके बाद दो और रिपोर्ट्स जनवरी-फरवरी में सामने आई । जबकि तीसरी रिपोर्ट अगस्त 2020 में  सामने आई

इन रिपोर्ट्स में इस बात का खुलासा किया गया था कि फेसबुक का आर्टिफ़िशल इंटेलीजेंस टूल स्थानीय भाषाओं की पहचान नहीं कर सकता है। इसी  वजह से फैंक कंटेंट और हेट स्पीच की भी पहचान नहीं हो पाई है। द इंडियन एक्सप्रेस की रिपोर्ट के अनुसार इसके बारे में पूछे जाने पर फ़ेसबुक ने कोई जवाब नहीं दिया।

आरोपों को लेकर फेसबुक ने अपनी पहली रिपोर्ट में कहा था कि पश्चिम बंगाल में फ़ेसबुक पर पोस्ट किए गए कंटेंट में से 40 फ़ीसदी फर्जी था। दूसरी रिपोर्ट एक टेस्ट अकाउंट के नतीजों पर आधारित थी। जबकि तीसरी रिपोर्ट में कहा गया था कि तीन हफ़्ते के भीतर ही किसी टेस्ट यूजर की न्यूज़ फीड राष्ट्रवादी कंटेंट ग़लत सूचनाओं और हिंसा का ध्रुवीकरण करने वाली पोस्ट बन गई। टेस्ट अकाउंट एक डमी यूजर था।  जिसका फ़ेसबुक पर कोई दोस्त नहीं था और इसे फ़ेसबुक के ही एक कर्मचारी ने यह जानने के लिए बनाया था कि इसका क्या असर होता है।

गौर करने वाली बात यह है कि इस टेस्ट यूजर ने केवल फ़ेसबुक के एल्गोरिथम के द्वारा दिखाए गए कंटेंट को ही फ़ॉलो किया था। कर्मचारी ने अपनी रिपोर्ट में कहा था कि कंटेंट की क्वालिटी ठीक नहीं थी और एल्गोरिथम यूजर को अधिकतर सॉफ्टकोर पोर्न देखने का सुझाव देता था।

14 फ़रवरी के पुलवामा हमले के बाद एल्गोरिथम ने ऐसे फ़ेसबुक पेजों और ग्रुप्स को दिखाना शुरू कर दिया जो अधिकतर राजनीति और सेना से जुड़ी चीजों पर आधारित थे।

यह भी पढ़ें : फिर विवादों में फेसबुक

‘द इंडियन एक्सप्रेस’ ने फेसबुक को दी अपनी सफाई में कहा है कि उसने कई भाषाओं हिंदी और बंगाली में हेट स्पीच की जांच की थी और अब यह काफ़ी कम हो गयी है लेकिन कमजोर तबकों जैसे मुसलिम समुदाय आदि के ख़िलाफ़ यह दुनिया भर में बढ़ रही है और कंपनी इस बारे में काम कर रही है।

You may also like

MERA DDDD DDD DD