प्रसिद्ध अभिनेत्री रश्मिका मंदानाच्या नावाने सध्या एक व्हिडीओ व्हायरल होत आहे. या व्हिडीओतील महिला रश्मिका मंदाना असल्याचा दावा केला जात असून तो काही क्षणांत समाजमाध्यमांवर व्हायरल झाला आहे. त्यानंतर बॉलिवडूमधील अनेक अभिनेत्यांनी त्यावर प्रतिक्रिया दिल्या आहेत. दरम्यान, व्हायरल होत असलेल्या व्हिडीओतील महिला रश्मिका मंदाना नाही. ‘डीपफेक तंत्रज्ञान’च्या मदतीने हा व्हिडीओ तयार करण्यात आला आहे. याच पार्श्वभूमीवर डीपफेक तंत्रज्ञान काय आहे? त्याचा वापर कोठे केला जातो? रश्मिका मंदानाच्या नावाने व्हायरल होत असलेल्या व्हिडीओचे सत्य काय आहे? हे जाणून घेऊ या…
नेमका प्रकार काय?
सध्या रश्मिका मंदानाचा एक मॉर्फ व्हिडीओ समाज माध्यमांवर व्हायरल होत आहे. याव्हिडीओत एक महिला लिफ्टमध्ये जाताना दिसत असून ती रश्मिका मंदाना असल्याचा दावा केला जातोय. प्रथमदर्शनी या व्हिडीओतील महिला रश्मिका मंदाना असल्याचा भास होतो. मात्र खरं पाहता ती महिला रश्मिका मंदाना नाही. मिळालेल्या माहितीनुसार व्हिडीओतील खऱ्या महिलेचे नाव झारा पटेल असून ती भारतीय वंशाची ब्रिटिश नागरिक आहे. डीपफेक तंत्रज्ञानाचा वापर करून झारा पटेल यांच्या चेहऱ्यावर रश्मिका मंदानाचा चेहरा लावण्यात आला आहे. याच कारणामुळे सामान्य लोकांना व्हायरल व्हिडीओतील महिला ही रश्मिका मंदाना असल्याचा भास होतोय.
डीपफेक म्हणजे काय?
आधूनिक तंत्रज्ञानाच्या मदतीने तयार केलेले हे एक एआय टूल आहे. या तंत्रज्ञानाला २१ व्या शतकातील फोटोशॉपिंग म्हणता येऊ शकते. डीपफेकमध्ये एआयचाच एक भाग असणाऱ्या ‘डीप लर्निंग’च्या मदतीने प्रत्यक्षात न घडलेल्या घटनेच्या प्रतिमांची निर्मिती करता येऊ शकते. डीपफेक या तंत्रज्ञानात व्हिडीओ किंवा फोटोमध्ये असलेल्या व्यक्तीची दुसऱ्या एखाद्या व्यक्तीशी अदलाबदल करता येऊ शकते. अगदीच सोप्या भाषेत एखादे उदाहरण द्यायचे झाले तर, एखाद्या प्रतिमेत किंवा व्हिडीओमध्ये प्रत्यक्ष तुम्ही हजर नसलात तरी दुसऱ्या एखाद्या व्यक्तीच्या चेहऱ्यावर तुमचा फोटो (प्रतिमा) या तंत्रज्ञानाच्या सहाय्याने चपखलपणे लावता येतो. म्हणूनच या तंत्रज्ञानाचा वापर मोठ्या प्रमाणात अश्लील डीपफेक व्हिडीओ तयार करण्यासाठी केला जात आहे. एखाद्या व्यक्तीचा चेहरा वापरून अश्लील दृक्-श्राव्य चित्रण, या माध्यमात केले जाते.
झारा पटेल यांच्या चेहऱ्यावर लावला रश्मिकाचा चेहरा
सध्या व्हायरल होत असलेल्या व्हिडीओबाबत बोलायचे झाल्यास, व्हिडीओतील महिला रश्मिकाच आहे, हे भासवण्यासाठी डीप लर्निंगच्या मदतीने झारा पटेल यांच्या चेहऱ्यावर रश्मिकाचा चेहरा लावण्यात आला आहे. यामुळे व्हिडीओतील खरीखुरी महिला गायब झाली असून तिच्या चेहऱ्यावर रश्मिकाचा फोटो दिसत आहे. डीपफेक तंत्रज्ञान हे अनेक अर्थांनी धोकादायक ठरू शकते. उदाहरणार्थ आक्षेपार्ह विधान केलेल्या एखाद्या व्यक्तीच्या चेहऱ्यावर अन्य कोणत्याही व्यक्तीचा चेहरा लावता येऊ शकतो. म्हणजेच एखाद्या कृत्यात आपला सहभाग नसला तरी डीपफेकच्या मदतीने आपला चेहरा तेथे लावून आपणच संबंधित घटनेसाठी जाबाबदार आहोत, असे दाखवता येऊ शकते.
डीपफेक व्हिडीओ कसे तयार केले जातात?
डीपफेक व्हिडीओ हे तंत्रज्ञान बऱ्याच वर्षांपासून वापरले जाते. हे तंत्रज्ञान वापरून सर्वप्रथम २०१७ साली गॅल गॅडोट, स्कार्लेट जॉन्सन, टेलर स्वीफ्ट या अभिनेत्र्यांचे पॉर्नोग्राफिक व्हिडीओ तयार करण्यात आले होते. हे व्हिडीओ नंतर ‘रेडीट’ या समाजमाध्यमावर व्हायरल झाले होते. अशा प्रकारचे खोटे व्हिडीओ तयार करण्यासाठी डीप लर्निंग अल्गोरिदमची मदत घेतली जाते. आर्टिफिशियल इंटेलिजन्सचे अल्गोरिदम (एन्कोडर) वापरून चेहऱ्याच्या हजारो प्रतिमा स्कॅन केल्या जातात. या प्रतिमांच्या मदतीने दोन व्यक्तींच्या चेहऱ्यातील साम्य शोधले जाते.
त्यानंतर एन्कोडरच्या मदतीने खोटी प्रतिमा व्हिडीओतील खऱ्या चेहऱ्यावर लावली जाते. त्यासाठी डिकोडर या नव्या अल्गोरिदमची मदत घेतली जाते. डिकोडरच्या मदतीने चेहऱ्याचा आकार, हावभाव यांचे मिश्रण करून नवा डीपफेक व्हिडीओ तयार केला जातो.
डीपफेक तंत्रज्ञानाचा वापर कशासाठी केला जातो?
खरं पाहता डीपफेक या तंत्रज्ञानाचा वापर अश्लिल व्हिडीओ तयार करण्यासाठी केला जातो. मात्र सध्या राजकाण, वेगवेगळ्या निवडणुकीतही या तंत्रज्ञनाचा वापर केला जात आहे. आजकाल अनेक नेत्यांनी वेगवेगळी प्रक्षोभक विधान केलेले व्हिडीओ व्हायरल होतात. प्रत्यक्षात मात्र त्यांनी अशा प्रकारचे कोणतेही वक्तव्य केलेले नसते. एआयच्या मदतीने अशा प्रकारचे डीपफेफ व्हिडीओ आज सर्रास तयार केले जात आहेत. काही वर्षांपूर्वी अमेरिकेचे माजी राष्ट्राध्यक्ष बराक ओबामा यांचा असाच एक व्हिडीओ व्हायरल झाला होता. या व्हिडीओमध्ये ते अमेरिकेचे माजी राष्ट्राध्यक्ष डोनाल्ड ट्रम्प यांच्यावर टीका करताना दिसत होते. प्रत्यक्षात मात्र हा व्हिडीओ डीपफेक तंत्रज्ञानाच्या मदतीने तयार करण्यात आला होता. मेटा कंपनीचे प्रमुख मार्क झुकरर्बग यांचादेखील असाच एक व्हिडीओ व्हायरल झाला होता. या व्हिडीओत ते इंटरनेटवरील डेटासंदर्भात भाष्य करताना दिसत होते. मात्र हा व्हिडीओदेखील बनावट होता.
डीपफेकच्या महिला ठरत आहेत बळी
गेल्या अनेक वर्षांपासून डीपफेक व्हिडीओंची निर्मिती रोखण्यासाठी प्रयत्न केले जात आहेत. एआय फर्म डिपट्रेसने सप्टेंबर २०१९ मध्ये साधारण १५ हजार डीपफेक व्हिडीओ शोधून काढले होते. महिलांचे चारित्र्यहनन करण्यासाठी या तंत्रज्ञानाचा सर्रास वापर केला जातो. डीपफेक तंत्रज्ञानाच्या सर्वाधिक बळी या महिला आहेत, असे म्हणायला हरकत नाही.
डीपफेक तंत्रज्ञान फक्त व्हिडीओ तयार करण्यासाठीच वापरले जाते का?
डीपफेक तंत्राचा वापर फक्त व्हिडीओ तयार करण्यासाठीच केला जात नाही. पूर्णपणे काल्पनिक फोटो तयार करण्यासाठीदेखील या तंत्रज्ञानाचा वापर होतो. डीपफेकचा वापर करून लिंक्डइनवर ‘मैसी किन्सले’ नावाचे प्रोफाईल तयार करण्यात आले होते. मैसी किन्सले हे पत्रकार असून ते ब्लुमबर्गमध्ये नोकरी करतात, असे सांगण्यात आले होते. प्रत्यक्षात मात्र मैसी किन्सले नावाची कोणतीही व्यक्ती अस्तित्त्वातच नाही. केटी जोन्स नावाने असेच एक प्रोफाईल तयार करण्यात आले होते. केटी जोन्स या सेंटर फॉर स्ट्रॅटेजिक अँड इंटरनॅशनल स्टडीजमध्ये काम करत असल्याचा दावा करण्यात आला होता.
अनेक क्षेत्रांत या तंत्रज्ञानाचा वापर
म्हणजेच डीपफेक तंत्रज्ञानाचा वापर हा जगासाठी घातक ठरू शकतो. सध्या डीपफेक या तंत्रज्ञानाचा वापर विविध क्षेत्रातील लोकांकडून केला जातो. यामध्ये शैक्षणिक, औद्योगिक क्षेत्रातील संशोधक, हौशी लोक, व्हिज्युअल इफेक्ट स्टुडिओ तसेच अश्लिल चित्रपटांची निर्मिती करणारेदेखील या तंत्रज्ञानाचा वापर करतात.