मध्य प्रदेश के इंदौर में कॉलेज में पढ़ने वाली लड़कियों के डीपफेक फोटो ( deepfake photo ) बनाकर ब्लैकमेल करने वाले एक व्यक्ति को गिरफ्तार किया गया है। मामला इंदौर के परदेशीपुरा है। यहां एक व्यक्ति अपनी ही पत्नी की सहेलियों की AI ( artificial intelligence ) के जरिए अश्लील तस्वीरें बनाकर उन्हें भेजता था। साथ ही लड़कियों से कहता कि मुझसे बात करो नहीं तो फोटो वायरल कर दूंगा।
इंस्टाग्राम पर भेजता था तस्वीरें
आरोपी यश भावसार एआई की मदद से लड़कियों की अश्लील तस्वीरें ( ai obscene photos ) बनाता था। इनमें से ज्यादतर लड़कियां उसकी पत्नी की सहेलियां थी। उसने उन्हीं लड़कियों की तस्वीरें बनाई जिनके पास इंस्टाग्राम अकाउंट है। फिर उन तस्वीरों को इंस्टाग्राम पर भेजकर लड़कियों को धमकी देने लगा। आरोपी युवक लड़कियों को उससे बात करने के लिए कहता। साथ ही मैसेज को नजरअंदाज करने या उसे ब्लॉक करने पर डीपफेक फोटो वायरल करने की धमकी देता। पीड़ित लड़कियों ने बताया कि आरोपी उनसे जबरदस्ती गंदी-गंदी बाते करना चाहता था।
ये खबर भी पढ़िये...
नगर परिषद में कंप्युटर ऑपरेटर है युवक
लड़िकयों की अश्लील तस्वीरें बनाने वाला युवक शाजापुर नगर परिषद में कंप्यूटर ऑपरेटर है। अश्लील डीपफेक तस्वीरे भेजकर ब्लैकमेल करने की शिकायत पीड़ित महिलाओं ने पुलिस में दर्ज कराई। इसके बाद मामले की जांच करते हुए पुलिस आरोपी यश भावसार तक पहुंची और उसे गिरफ्तार किया। डीसीपी अभिनय विश्वकर्मा ने बताया कि पुलिस ने उसका मोबाइल और लैपटॉप जब्त कर लिया है।
ये खबर भी पढ़िये...
अब रतन टाटा का डीपफेक वीडियो वायरल, ऑनलाइन सट्टेबाजी कोच का समर्थन करते आ रहे नजर
क्या है डीपफेक ?
AI के इस्तेमाल से इन दिनों डीपफेक फोटो और वीडियो बनाए जा रहे हैं। प्रधानमंत्री नरेंद्र मोदी, क्रिकेटर सचिन तेंदुलकर, अभिनेता अमिताभ बच्चन जैसे बड़े-बड़े सेलिब्रिटी इसका शिकार हो चुके हैं। ऐसे में आपको बताते हैं क्या है डीपफेक टेक्नॉलोजी ( what is deepfake ) –
डीपफेक वीडियो या फोटो एक तरह के जीएएन तकनीक के जरिए बनती है। इसमें दो नेटवर्क होते हैं। एक नई चीजें प्रड्यूस करता है। दूसरा दोनों चीजों के बीच में फर्क पता करता है। इन दोनों को मिलाकर ऐसा डाटा जनरेट होता है जो असल से अलग होकर भी काफी मिलता जुलता लगता है। इसी तकनीक की मदद से फर्जी फोटो और वीडियो बनाकर वायरल किए जा रहे हैं।
thesootr links