Apple Identity Tool: चाइल्ड पोर्न रोकने के लिए आपके iPhone की फोटोज को करेगा स्कैन ,एपल करेगा निगरानी

author-image
एडिट
New Update
Apple Identity Tool: चाइल्ड पोर्न रोकने के लिए आपके iPhone की फोटोज को करेगा स्कैन ,एपल करेगा निगरानी

एपल एक फोटो आईडेंटिटी टूल की घोषणा करने की योजना बना रहा है। यह टूल आईओएस प्लेटफॉर्म पर फोटो लाइब्रेरी में बच्चों की अश्लील तस्वीरों की पहचान करेगा। एपल ने पहले बच्चों से जुड़ी अश्लील सामग्री की चिंताओं को लेकर एप स्टोर से अलग-अलग एप को हटा दिया था, लेकिन अब ऐसा कहा जा रहा है कि यह इस तरह के सिस्टम को कंपनी व्यापक रूप से पेश करने वाली है।आईओएस, मॅकओएस, वॉचओएस और आईमैसेज प्लेटफॉर्म्स पर यह नई तकनीक लॉन्च होगी। हालांकि, कंपनी ने घोषणा की है कि उसकी आने वाले सभी डिवाइस नए क्रिप्टोग्राफिक एप्लिकेशन्स होंगे, जो अश्लील तस्वीरों को फैलने से रोकेंगे और यूजर्स की प्राइवेसी भी प्रभावित नहीं होगी। जिससे पैरेंट्स बच्चों की ऑनलाइन एक्टिविटी पर ज्यादा निगरानी रख सकेंगे।

इसी तरह का एक फीचर सीरी भी आएगा।

इस नए फीचर के जरिए अगर यूजर बच्चों से जुड़ी अश्लील सामग्री सर्च करेगा, तो यह फीचर उसे रोकेगा। साथ ही चाइल्ड और पैरेंट्स की ऑनलाइन सेफ्टी के लिए अतिरिक्त जानकारी भी देगा। दूसरी ओर, प्राइवेसी से जुड़ी चिंताएं भी खड़ी हो रही हैं। ‘यह एक ऐसी प्रक्रिया की शुरूआत है जो फोन से भेजे और प्राप्त किए गए डेटा ट्रैफिक की निगरानी की ओर से ली जाती है।

फोन में न्यूट्रलमैच नाम का नया एल्गोरिद्म आएगा, यह जांचेगा तस्वीरें

एपल अपने फोन में न्यूट्रलमैच नाम का एक नया एल्गोरिद्म शामिल करेगी। ये एल्गोरिद्म फोन में स्टोर की जाने वाली तस्वीरों की लगातार जांच करता रहेगा। साथ ही वह तस्वीरों को आईक्लाउड पर अपलोड करता रहेगा। फिलहाल, ये एल्गोरिद्म सिर्फ अमेरिका में बिकने वाले फोन में डाला जाएगा।

एपल ने न्यूट्रलमैच के बारे में इसी हफ्ते अमेरिका के कुछ विशेषज्ञों और सुरक्षा अनुसंधानकर्ताओं को जानकारी दी। उसके मुताबिक न्यूट्रलमैच एक ओटोमेटेड (स्वचालित) सिस्टम होगा, जो किसी तस्वीर के बारे में शक होने पर तुरंत मानव जांचकर्ताओं को अलर्ट कर देगा। मानव जांचकर्ता तब उसका सत्यापन करेंगे।

top news child porn apple iphone security