Deepfake technology is becoming dangerous २०१७ साली अमेरिकेत एक व्हिडीओ प्रसारित झाला आणि त्यानंतर एकच खळबळ उडाली. या व्हिडीओमध्ये अमेरिकेचे माजी राष्ट्राध्यक्ष बराक ओबामा काही बोलत होते, तसेच त्यांच्या मागे अमेरिकेचा राष्ट्रध्वज असल्याचेही या ध्वनिचित्रफितीत आपण पाहू शकतो. या व्हिडीओमध्ये ते प्रतिस्पर्धी डोनाल्ड ट्रम्प यांच्याविषयी अश्लाघ्य भाषेत टीका करताना दिसत आहेत. ज्या क्षणी हा व्हिडीओ व्हायरल झाला, त्या वेळेपासून पुढील तीन ते चार महिन्यांच्या कालावधीतच सुमारे ५० लाखांहून अधिक वेळा तो पाहिला गेला. महत्त्वाचे म्हणजे हा व्हिडीओ बनावट असून AI (ए आय) – डीपफेक तंत्रज्ञानाच्या मदतीने तयार करण्यात आला होता. हा व्हिडीओ प्रत्यक्षात अभिनेता-दिग्दर्शक जॉर्डन पीले यांनी तयार केला होता. या व्हिडीओमुळे हे तंत्रज्ञान किती घातक ठरू शकते याची प्रचिती जगाला आली. हा फक्त एक प्रयोग होता. परंतु त्यानंतर जगात या तंत्रज्ञानाचा असा काही उपयोग करण्यात आला, ज्यामुळे अनेकांना मानहानी, मानसिक त्रास सहन करावा लागला, किंबहुना लागत आहे. विशेष म्हणजे या तंत्रज्ञानाने बळी घेतलेल्या पीडितांमध्ये महिलांचे प्रमाण जास्त आहे. आता याच तंत्रज्ञानाचा वापर करून तयार केलेला अभिनेत्री रश्मिका मंदानाचा एक आक्षेपार्ह व्हिडीओ सोशल मीडियावर व्हायरल होत आहे.
त्यामुळेच नेमके हे तंत्रज्ञान काय आहे ? त्यापासून संभाव्य धोके कोणते? व त्यासंदर्भात कोणत्या प्रकारची सावधानता बाळगणे गरजेचे आहे. हे जाणून घेणे गरजेचे आहे.
डीपफेक नेमके काय आहे?
डीपफेक हे आधुनिक तंत्रज्ञान युगातील एक भयंकर शस्त्र मानले जाते. मूलतः हे एक डिजिटल माध्यम असून, या तंत्रज्ञानात आर्टिफिशिअल इंटेलिजन्सच्या माध्यमातून व्हिडीओ, ऑडिओ आणि प्रतिमा (दृक्-श्राव्य माध्यमे) हाताळल्या जातात. तसेच त्यांच्यात बदल केले जातात. या तंत्रज्ञानाचा जितका सकारात्मक उपयोग आहे, तितकाच विध्वंसकवृत्तीने उपयोग करण्यात येत असल्याचे दिसते. हे शस्त्र अणुबॉम्बसारखे नसले तरी या कथित शस्त्राने रक्तपाताशिवाय अनेकांच्या आयुष्यांची राख-रांगोळी करण्याचे काम केले आहे. डीपफेक तंत्रज्ञान मुळात हायपर-रिअॅलिस्टिक डिजिटल फॉल्सिफिकेशन आहे. हे माध्यम, व्यक्ती किंवा संस्था यांना हानी पोहचविण्याकरिता वापरण्यात येते. अगदीच सोप्या भाषेत एखादे उदाहरण द्यायचे झाले तर, एखाद्या प्रतिमेत किंवा व्हिडीओमध्ये प्रत्यक्ष तुम्ही हजर नसलात तरी दुसऱ्या एखाद्या व्यक्तीच्या चेहऱ्यावर तुमचा फोटो (प्रतिमा) चपखल या तंत्रज्ञानाच्या साहाय्याने लावता येतो. म्हणूनच या तंत्रज्ञानाचा वापर मोठ्या प्रमाणात अश्लील डीपफेक व्हिडीओ तयार करण्यासाठी केला जात आहे. एखाद्या व्यक्तीचा चेहरा वापरून अश्लील दृक्-श्राव्य चित्रण, या माध्यमात केले जाते. आर्टिफिशियल इंटेलिजन्स (AI) निर्मित सिंथेटिक मीडिया किंवा डीपफेकचे काही विशिष्ट क्षेत्रांमध्ये फायदे असले तरी, या सिंथेटिक मीडिया तंत्रज्ञानाचा वापर जसजसा वाढत आहे, त्याच वेगाने त्याच्या वापरातून निर्माण होणारा शोषणाचा धोकाही वाढताना दिसत आहे. इतकेच नाही तर डीपफेकचा वापर अप्रतिष्ठेसाठी, एखाद्याच्या विरोधात खोटे पुरावे तयार करण्यासाठी, जनतेची फसवणूक करण्यासाठी होताना दिसत आहे.
डीपफेक तंत्रज्ञानाच्या सर्वाधिक बळी या ‘महिला’
या आधी नमूद केल्याप्रमाणे या तंत्रज्ञानाचा वापर अश्लील व्हिडीओ तयार करण्यासाठी मोठ्या प्रमाणावर होत आहे. म्हणूनच या तंत्रज्ञानाच्या बळी बहुतांश महिला आणि मुली आहेत. महिलांच्या चेहऱ्याचा वापर पॉर्न व्हिडीओमध्ये करण्यात येतो. म्हणूनच तज्ज्ञांच्या मते हे तंत्रज्ञान महिलांवरील हिंसाचाराला मुक्तपणे खतपाणी घालण्याचे माध्यम झाले आहे. किंबहुना sensity.ai यांनी नोंदविलेल्या आकडेवारीनुसार ९६ टक्के पोर्नोग्राफिक व्हिडीओ हे डीपफेक तंत्रज्ञानाच्या माध्यमातून तयार करण्यात आलेले आहेत. तसेच अशा स्वरूपाच्या पोर्नोग्राफिक व्हिडीओंना दीड कोटीपेक्षा अधिक व्ह्यूज असल्याचेही नोंदविले आहे. हे प्रकरण इतक्यावरच थांबत नाही तर अशा स्वरूपाचे खोटे व्हिडीओ तयार करणारे, ज्या महिलांचे खरे फोटो आहेत त्या महिलांना ब्लॅकमेल करून खंडणी मिळविण्याचा प्रयत्न करतात. यामुळे अनेक स्त्रियांवर मानसिक त्रासाला सामोरे जाण्याची वेळ आली आहे. कित्येकींवर यामुळे सामाजिक मानहानीला सामोरे जात आपल्या नोकऱ्या गमविण्याची वेळ आली आहे. मेगन फारोखमानेश यांनी ‘वायर्ड’ या मासिकातील The Debate on Deepfake Porn Misses the Point’ या लेखात नमूद केल्याप्रमाणे डीपफेक तंत्रज्ञानाच्या मदतीने जरी खोटा व्हिडीओ तयार केलेला असला तरी त्यातून पीडितेवर झालेला परिणाम कमी होणारा नसतो. एका पीडितेने दिलेल्या प्रतिक्रियेनुसार व्हिडीओत दाखवलेले शरीर तुमचे नसले तरी ते तुमचेच आहे असे दाखविले जाते, हेदेखील तुमच्या मर्यादांचे उल्लंघन करण्यासारखे आहे. पोर्नोग्राफी आणि महिलांवरील लैंगिक हिंसाचार यांच्यात जवळचा संबंध आहे. अशा प्रकारे सामान्य महिलांच्या चेहऱ्याचा पोर्नोग्राफीतील वापर हा त्यांच्यावरील हिंसाराचात वाढीचेच काम करतो अशी चिंता तज्ज्ञ व्यक्त करत आहेत.
डीपफेकचे परिणाम
डीपफेकद्वारे एखाद्या व्यक्तीला कुठल्याही असामाजिक कृत्यात गुंतविता येते. हे तंत्रज्ञान प्रगत असल्याने व्हिडीओ किंवा प्रतिमेत दाखविलेली व्यक्ती खरी की खोटी हेच प्रथमदर्शनी सांगणे कठीण होते. या तंत्रज्ञानाचा बळी पडलेली व्यक्ती या विरोधात न्याय मागू शकते. परंतु या विरोधात ठोस कायदे अद्याप झालेले नाहीत. किंबहुना या न्यायदानाच्या प्रक्रियेत उशीर झाल्याचेच चित्र समोर आले आहे. त्यामुळे पीडितेला गंभीर मानसिक आजार व सामाजिक हानीला बळी पडावे लागते. डीपफेक हे लघू तसेच दीर्घकालीन परिणाम करणारे आहे.
आणखी वाचा : विश्लेषण: अणुबॉम्बचे जनक ओपेनहायमर यांना कुरुक्षेत्रावरील श्रीकृष्णाचे विराट रूप का आठवले होते?
डीपफेकचे संभाव्य परिणाम
डीपफेक तंत्रज्ञानाच्या माध्यमातून राष्ट्राराष्ट्रांतील संबंधांमध्येही तणाव निर्माण होऊ शकतात. देशात अराजक निर्माण करून राष्ट्राच्या सुरक्षेला बाधा पोहोचविण्याचे काम या माध्यमातून तडीस नेले जाऊ शकते. त्यामुळे सामान्यांमधील देशाच्या सुरक्षायंत्रणेवरील विश्वासार्हतेला तडा जाऊ शकतो. या माध्यमाचा वापर करून लोकांमध्ये असंतोषाची भावना निर्माण करून दंगलींसारखे प्रकार घडविण्यात येऊ शकतात. राजकारणात आपल्या विरोधकांची या तंत्रज्ञानाच्या माध्यमातून बेअब्रू करता येऊ शकते.
उपाय
‘मीडिया लिटरसी’ म्हणजेच प्रसारमाध्यम-साक्षरता हा डीपफेक तंत्रज्ञानाच्या नकारात्मक परिणामांवर उत्तम उपाय मानला जात आहे. खोटी माहिती पसरविणाऱ्या माध्यमांना आळा बसविण्यात प्रसारमाध्यम-साक्षरता उपयोगी ठरू शकते असे मानले जाते, किंबहुना अनेक सोशल मीडिया प्लॅटफॉर्मनी AI तंत्रज्ञानाचा चुकीचा वापर टाळण्यासाठी आपल्या पातळीवर काही अटी व नियमावली केल्या आहेत. डीपफेकसारख्या गोष्टींवर नियंत्रण मिळविण्याकरिता कायदेशीर नियमावलींचीदेखील गरज आहे.
तसेच आपल्या वैयक्तिक पातळीवर समाजमाध्यमांवर काहीही शेअर करताना काळजी घेणे गरजेचे आहे. किंबहुना जगभरातील अनेक तज्ज्ञांनी या तंत्रज्ञाविषयी चिंता व्यक्त केली आहे. त्यात युवल नोह हरारी यांचे मत विचारात घेणे गरजेचे आहे. युवल नोह हरारी ‘सेपियन्स’ या सर्वाधिक खपाच्या पुस्तकाचे लेखक आहेत. त्यांनी AI तंत्रज्ञानावर कडक नियमावली लागू करावी, असा आग्रह धरला आहे. त्यांनी व्यक्त केलेल्या मतानुसार ‘एआय’ नियंत्रणाबाहेर जाण्यापूर्वी आपल्याला त्वरित काहीतरी करणे गरजेचे आहे. ज्याप्रमाणे एखादी औषध कंपनी औषधाची पूर्ण चाचणी केल्याशिवाय ते औषध बाजारात आणू शकत नाही, त्याप्रमाणे या तंत्रज्ञानाची पूर्ण पडताळणी केल्याशिवाय हे तंत्रज्ञान वापरणे चुकीचे आहे.