एपल एक फोटो आईडेंटिटी टूल की घोषणा करने की योजना बना रहा है। यह टूल आईओएस प्लेटफॉर्म पर फोटो लाइब्रेरी में बच्चों की अश्लील तस्वीरों की पहचान करेगा। एपल ने पहले बच्चों से जुड़ी अश्लील सामग्री की चिंताओं को लेकर एप स्टोर से अलग-अलग एप को हटा दिया था, लेकिन अब ऐसा कहा जा रहा है कि यह इस तरह के सिस्टम को कंपनी व्यापक रूप से पेश करने वाली है।आईओएस, मॅकओएस, वॉचओएस और आईमैसेज प्लेटफॉर्म्स पर यह नई तकनीक लॉन्च होगी। हालांकि, कंपनी ने घोषणा की है कि उसकी आने वाले सभी डिवाइस नए क्रिप्टोग्राफिक एप्लिकेशन्स होंगे, जो अश्लील तस्वीरों को फैलने से रोकेंगे और यूजर्स की प्राइवेसी भी प्रभावित नहीं होगी। जिससे पैरेंट्स बच्चों की ऑनलाइन एक्टिविटी पर ज्यादा निगरानी रख सकेंगे।
इसी तरह का एक फीचर सीरी भी आएगा।
इस नए फीचर के जरिए अगर यूजर बच्चों से जुड़ी अश्लील सामग्री सर्च करेगा, तो यह फीचर उसे रोकेगा। साथ ही चाइल्ड और पैरेंट्स की ऑनलाइन सेफ्टी के लिए अतिरिक्त जानकारी भी देगा। दूसरी ओर, प्राइवेसी से जुड़ी चिंताएं भी खड़ी हो रही हैं। ‘यह एक ऐसी प्रक्रिया की शुरूआत है जो फोन से भेजे और प्राप्त किए गए डेटा ट्रैफिक की निगरानी की ओर से ली जाती है।
फोन में न्यूट्रलमैच नाम का नया एल्गोरिद्म आएगा, यह जांचेगा तस्वीरें
एपल अपने फोन में न्यूट्रलमैच नाम का एक नया एल्गोरिद्म शामिल करेगी। ये एल्गोरिद्म फोन में स्टोर की जाने वाली तस्वीरों की लगातार जांच करता रहेगा। साथ ही वह तस्वीरों को आईक्लाउड पर अपलोड करता रहेगा। फिलहाल, ये एल्गोरिद्म सिर्फ अमेरिका में बिकने वाले फोन में डाला जाएगा।
एपल ने न्यूट्रलमैच के बारे में इसी हफ्ते अमेरिका के कुछ विशेषज्ञों और सुरक्षा अनुसंधानकर्ताओं को जानकारी दी। उसके मुताबिक न्यूट्रलमैच एक ओटोमेटेड (स्वचालित) सिस्टम होगा, जो किसी तस्वीर के बारे में शक होने पर तुरंत मानव जांचकर्ताओं को अलर्ट कर देगा। मानव जांचकर्ता तब उसका सत्यापन करेंगे।