विविध लोन अॅप्स महिलांच्या फोटोंचा गैरवापर करत आहेत असा आरोप गायिका चिन्मयी श्रीपदाने केला आहे. AI, Deepfake यांचा वापर करुन फक्त सेलिब्रिटींनाच नाही तर सामान्य माणसांनाही त्रास दिला जातो आहे. गायिका चिन्मयी श्रीपदाने याविषयीची एक पोस्टही X वर लिहिली आहे.

डीपफेक होतंय नवं तांत्रिक हत्यार

चिन्मयीने लिहिलं आहे की आता डीपफेक हे नव्या तांत्रिक हत्यारासारखं आहे. याचा उपोयग मुली, महिलांना टार्गेट करण्यासाठी, ब्लॅकमेल करण्यासाठी, बलात्कार करण्यासाठी केला जातो आहे. एखाद्या खेडेगावात राहणाऱ्या मुलीला तिच्या कुटुंबाला हे कळतही नाही की त्यांच्या अब्रूचे धिंडवडे कसे निघाले? हे त्यांना कळणारही नाही. ज्या महिलांनी लोन अॅप्सद्वारे पैसे कर्ज म्हणून घेतले आहेत अशा महिलांनाही टार्गेट केलं जातं आहे. त्यासाठीही डीपफेकचा वापर केला जातो आहे असाही आरोप चिन्मयी श्रीपदाने केला आहे. पैसे वसूल करण्यासाठी महिलांचे फोटो हे अश्लील फोटोंमध्ये बदलले जातात आणि त्यांना टार्गेट केलं जातं.

लोकांनी जागरुक व्हायची गरज

डीपफेक तंत्रज्ञान हे असं आहे जे ओळखणं कठीण असतं. आगामी काळात एखादा फोटो किंवा व्हिडीओ डीपफेक आहे का? हे लक्षात येणंही कठीण होणार आहे. अशा गोष्टींना तोंड द्यायचं असेल तर राष्ट्रव्यापी जनजागृतीची गरज आहे. लोकांना डीपफेक तंत्र आणि त्याचे संभाव्य धोके हे समजावून सांगणं आवश्यक आहे. एनडीटीव्हीने याविषयीचं वृत्त दिलं आहे.

रश्मिका, कतरिनाचे डीपफेक

दोन दिवसांपासून सोशल मीडियावर रश्मिका मंदानाचा एक डीपफेक व्हिडीओ व्हायरल होत आहे. एका लिफ्टमध्ये रश्मिका मंदाना शिरताना या व्हिडीओत दिसत आहे. पण व्हिडीओतली व्यक्ती रश्मिका नसून मॉडेल झारा पटेलचा असल्याची बाब नंतर समोर आली. त्यापाठोपाठ मंगळवारी टायगर ३ मधील एका सीनचा कतरिना कैफचा एक फोटोही अशाच प्रकारे डीपफेक तंत्रज्ञानाच्या आधारे मॉर्फ्ड करण्यात आला. या पार्श्वभूमीवर आता केंद्र सरकारने या वेबसाईट्सला हा कंटेंट काढून टाकण्याचे आदेश दिले आहेत.

Story img Loader