प्रसिद्ध अभिनेत्री रश्मिका मंदानाच्या नावाने सध्या एक व्हिडीओ व्हायरल होत आहे. या व्हिडीओतील महिला रश्मिका मंदाना असल्याचा दावा केला जात असून तो काही क्षणांत समाजमाध्यमांवर व्हायरल झाला आहे. त्यानंतर बॉलिवडूमधील अनेक अभिनेत्यांनी त्यावर प्रतिक्रिया दिल्या आहेत. दरम्यान, व्हायरल होत असलेल्या व्हिडीओतील महिला रश्मिका मंदाना नाही. ‘डीपफेक तंत्रज्ञान’च्या मदतीने हा व्हिडीओ तयार करण्यात आला आहे. याच पार्श्वभूमीवर डीपफेक तंत्रज्ञान काय आहे? त्याचा वापर कोठे केला जातो? रश्मिका मंदानाच्या नावाने व्हायरल होत असलेल्या व्हिडीओचे सत्य काय आहे? हे जाणून घेऊ या…

आर्काइव्हमधील सर्व बातम्या मोफत वाचण्यासाठी कृपया रजिस्टर करा

नेमका प्रकार काय?

सध्या रश्मिका मंदानाचा एक मॉर्फ व्हिडीओ समाज माध्यमांवर व्हायरल होत आहे. याव्हिडीओत एक महिला लिफ्टमध्ये जाताना दिसत असून ती रश्मिका मंदाना असल्याचा दावा केला जातोय. प्रथमदर्शनी या व्हिडीओतील महिला रश्मिका मंदाना असल्याचा भास होतो. मात्र खरं पाहता ती महिला रश्मिका मंदाना नाही. मिळालेल्या माहितीनुसार व्हिडीओतील खऱ्या महिलेचे नाव झारा पटेल असून ती भारतीय वंशाची ब्रिटिश नागरिक आहे. डीपफेक तंत्रज्ञानाचा वापर करून झारा पटेल यांच्या चेहऱ्यावर रश्मिका मंदानाचा चेहरा लावण्यात आला आहे. याच कारणामुळे सामान्य लोकांना व्हायरल व्हिडीओतील महिला ही रश्मिका मंदाना असल्याचा भास होतोय.

डीपफेक म्हणजे काय?

आधूनिक तंत्रज्ञानाच्या मदतीने तयार केलेले हे एक एआय टूल आहे. या तंत्रज्ञानाला २१ व्या शतकातील फोटोशॉपिंग म्हणता येऊ शकते. डीपफेकमध्ये एआयचाच एक भाग असणाऱ्या ‘डीप लर्निंग’च्या मदतीने प्रत्यक्षात न घडलेल्या घटनेच्या प्रतिमांची निर्मिती करता येऊ शकते. डीपफेक या तंत्रज्ञानात व्हिडीओ किंवा फोटोमध्ये असलेल्या व्यक्तीची दुसऱ्या एखाद्या व्यक्तीशी अदलाबदल करता येऊ शकते. अगदीच सोप्या भाषेत एखादे उदाहरण द्यायचे झाले तर, एखाद्या प्रतिमेत किंवा व्हिडीओमध्ये प्रत्यक्ष तुम्ही हजर नसलात तरी दुसऱ्या एखाद्या व्यक्तीच्या चेहऱ्यावर तुमचा फोटो (प्रतिमा) या तंत्रज्ञानाच्या सहाय्याने चपखलपणे लावता येतो. म्हणूनच या तंत्रज्ञानाचा वापर मोठ्या प्रमाणात अश्लील डीपफेक व्हिडीओ तयार करण्यासाठी केला जात आहे. एखाद्या व्यक्तीचा चेहरा वापरून अश्लील दृक्-श्राव्य चित्रण, या माध्यमात केले जाते.

झारा पटेल यांच्या चेहऱ्यावर लावला रश्मिकाचा चेहरा

सध्या व्हायरल होत असलेल्या व्हिडीओबाबत बोलायचे झाल्यास, व्हिडीओतील महिला रश्मिकाच आहे, हे भासवण्यासाठी डीप लर्निंगच्या मदतीने झारा पटेल यांच्या चेहऱ्यावर रश्मिकाचा चेहरा लावण्यात आला आहे. यामुळे व्हिडीओतील खरीखुरी महिला गायब झाली असून तिच्या चेहऱ्यावर रश्मिकाचा फोटो दिसत आहे. डीपफेक तंत्रज्ञान हे अनेक अर्थांनी धोकादायक ठरू शकते. उदाहरणार्थ आक्षेपार्ह विधान केलेल्या एखाद्या व्यक्तीच्या चेहऱ्यावर अन्य कोणत्याही व्यक्तीचा चेहरा लावता येऊ शकतो. म्हणजेच एखाद्या कृत्यात आपला सहभाग नसला तरी डीपफेकच्या मदतीने आपला चेहरा तेथे लावून आपणच संबंधित घटनेसाठी जाबाबदार आहोत, असे दाखवता येऊ शकते.

डीपफेक व्हिडीओ कसे तयार केले जातात?

डीपफेक व्हिडीओ हे तंत्रज्ञान बऱ्याच वर्षांपासून वापरले जाते. हे तंत्रज्ञान वापरून सर्वप्रथम २०१७ साली गॅल गॅडोट, स्कार्लेट जॉन्सन, टेलर स्वीफ्ट या अभिनेत्र्यांचे पॉर्नोग्राफिक व्हिडीओ तयार करण्यात आले होते. हे व्हिडीओ नंतर ‘रेडीट’ या समाजमाध्यमावर व्हायरल झाले होते. अशा प्रकारचे खोटे व्हिडीओ तयार करण्यासाठी डीप लर्निंग अल्गोरिदमची मदत घेतली जाते. आर्टिफिशियल इंटेलिजन्सचे अल्गोरिदम (एन्कोडर) वापरून चेहऱ्याच्या हजारो प्रतिमा स्कॅन केल्या जातात. या प्रतिमांच्या मदतीने दोन व्यक्तींच्या चेहऱ्यातील साम्य शोधले जाते.

त्यानंतर एन्कोडरच्या मदतीने खोटी प्रतिमा व्हिडीओतील खऱ्या चेहऱ्यावर लावली जाते. त्यासाठी डिकोडर या नव्या अल्गोरिदमची मदत घेतली जाते. डिकोडरच्या मदतीने चेहऱ्याचा आकार, हावभाव यांचे मिश्रण करून नवा डीपफेक व्हिडीओ तयार केला जातो.

डीपफेक तंत्रज्ञानाचा वापर कशासाठी केला जातो?

खरं पाहता डीपफेक या तंत्रज्ञानाचा वापर अश्लिल व्हिडीओ तयार करण्यासाठी केला जातो. मात्र सध्या राजकाण, वेगवेगळ्या निवडणुकीतही या तंत्रज्ञनाचा वापर केला जात आहे. आजकाल अनेक नेत्यांनी वेगवेगळी प्रक्षोभक विधान केलेले व्हिडीओ व्हायरल होतात. प्रत्यक्षात मात्र त्यांनी अशा प्रकारचे कोणतेही वक्तव्य केलेले नसते. एआयच्या मदतीने अशा प्रकारचे डीपफेफ व्हिडीओ आज सर्रास तयार केले जात आहेत. काही वर्षांपूर्वी अमेरिकेचे माजी राष्ट्राध्यक्ष बराक ओबामा यांचा असाच एक व्हिडीओ व्हायरल झाला होता. या व्हिडीओमध्ये ते अमेरिकेचे माजी राष्ट्राध्यक्ष डोनाल्ड ट्रम्प यांच्यावर टीका करताना दिसत होते. प्रत्यक्षात मात्र हा व्हिडीओ डीपफेक तंत्रज्ञानाच्या मदतीने तयार करण्यात आला होता. मेटा कंपनीचे प्रमुख मार्क झुकरर्बग यांचादेखील असाच एक व्हिडीओ व्हायरल झाला होता. या व्हिडीओत ते इंटरनेटवरील डेटासंदर्भात भाष्य करताना दिसत होते. मात्र हा व्हिडीओदेखील बनावट होता.

डीपफेकच्या महिला ठरत आहेत बळी

गेल्या अनेक वर्षांपासून डीपफेक व्हिडीओंची निर्मिती रोखण्यासाठी प्रयत्न केले जात आहेत. एआय फर्म डिपट्रेसने सप्टेंबर २०१९ मध्ये साधारण १५ हजार डीपफेक व्हिडीओ शोधून काढले होते. महिलांचे चारित्र्यहनन करण्यासाठी या तंत्रज्ञानाचा सर्रास वापर केला जातो. डीपफेक तंत्रज्ञानाच्या सर्वाधिक बळी या महिला आहेत, असे म्हणायला हरकत नाही.

डीपफेक तंत्रज्ञान फक्त व्हिडीओ तयार करण्यासाठीच वापरले जाते का?

डीपफेक तंत्राचा वापर फक्त व्हिडीओ तयार करण्यासाठीच केला जात नाही. पूर्णपणे काल्पनिक फोटो तयार करण्यासाठीदेखील या तंत्रज्ञानाचा वापर होतो. डीपफेकचा वापर करून लिंक्डइनवर ‘मैसी किन्सले’ नावाचे प्रोफाईल तयार करण्यात आले होते. मैसी किन्सले हे पत्रकार असून ते ब्लुमबर्गमध्ये नोकरी करतात, असे सांगण्यात आले होते. प्रत्यक्षात मात्र मैसी किन्सले नावाची कोणतीही व्यक्ती अस्तित्त्वातच नाही. केटी जोन्स नावाने असेच एक प्रोफाईल तयार करण्यात आले होते. केटी जोन्स या सेंटर फॉर स्ट्रॅटेजिक अँड इंटरनॅशनल स्टडीजमध्ये काम करत असल्याचा दावा करण्यात आला होता.

अनेक क्षेत्रांत या तंत्रज्ञानाचा वापर

म्हणजेच डीपफेक तंत्रज्ञानाचा वापर हा जगासाठी घातक ठरू शकतो. सध्या डीपफेक या तंत्रज्ञानाचा वापर विविध क्षेत्रातील लोकांकडून केला जातो. यामध्ये शैक्षणिक, औद्योगिक क्षेत्रातील संशोधक, हौशी लोक, व्हिज्युअल इफेक्ट स्टुडिओ तसेच अश्लिल चित्रपटांची निर्मिती करणारेदेखील या तंत्रज्ञानाचा वापर करतात.

मराठीतील सर्व लोकसत्ता विश्लेषण बातम्या वाचा. मराठी ताज्या बातम्या (Latest Marathi News) वाचण्यासाठी डाउनलोड करा लोकसत्ताचं Marathi News App.
Web Title: Rashmika mandanna viral deepfake video know what is deepfake technology prd