Deepfake technology is becoming dangerous २०१७ साली अमेरिकेत एक व्हिडीओ प्रसारित झाला आणि त्यानंतर एकच खळबळ उडाली. या व्हिडीओमध्ये अमेरिकेचे माजी राष्ट्राध्यक्ष बराक ओबामा काही बोलत होते, तसेच त्यांच्या मागे अमेरिकेचा राष्ट्रध्वज असल्याचेही या ध्वनिचित्रफितीत आपण पाहू शकतो. या व्हिडीओमध्ये ते प्रतिस्पर्धी डोनाल्ड ट्रम्प यांच्याविषयी अश्लाघ्य भाषेत टीका करताना दिसत आहेत. ज्या क्षणी हा व्हिडीओ व्हायरल झाला, त्या वेळेपासून पुढील तीन ते चार महिन्यांच्या कालावधीतच सुमारे ५० लाखांहून अधिक वेळा तो पाहिला गेला. महत्त्वाचे म्हणजे हा व्हिडीओ बनावट असून AI (ए आय) – डीपफेक तंत्रज्ञानाच्या मदतीने तयार करण्यात आला होता. हा व्हिडीओ प्रत्यक्षात अभिनेता-दिग्दर्शक जॉर्डन पीले यांनी तयार केला होता. या व्हिडीओमुळे हे तंत्रज्ञान किती घातक ठरू शकते याची प्रचिती जगाला आली. हा फक्त एक प्रयोग होता. परंतु त्यानंतर जगात या तंत्रज्ञानाचा असा काही उपयोग करण्यात आला, ज्यामुळे अनेकांना मानहानी, मानसिक त्रास सहन करावा लागला, किंबहुना लागत आहे. विशेष म्हणजे या तंत्रज्ञानाने बळी घेतलेल्या पीडितांमध्ये महिलांचे प्रमाण जास्त आहे. आता याच तंत्रज्ञानाचा वापर करून तयार केलेला अभिनेत्री रश्मिका मंदानाचा एक आक्षेपार्ह व्हिडीओ सोशल मीडियावर व्हायरल होत आहे. 
त्यामुळेच नेमके हे तंत्रज्ञान काय आहे ? त्यापासून संभाव्य धोके कोणते? व त्यासंदर्भात कोणत्या प्रकारची सावधानता बाळगणे गरजेचे आहे. हे जाणून घेणे गरजेचे आहे.

डीपफेक नेमके काय आहे?

डीपफेक हे आधुनिक तंत्रज्ञान युगातील एक भयंकर शस्त्र मानले जाते. मूलतः हे एक डिजिटल माध्यम असून, या तंत्रज्ञानात आर्टिफिशिअल इंटेलिजन्सच्या माध्यमातून व्हिडीओ, ऑडिओ आणि प्रतिमा (दृक्-श्राव्य माध्यमे) हाताळल्या जातात. तसेच त्यांच्यात बदल केले जातात. या तंत्रज्ञानाचा जितका सकारात्मक उपयोग आहे, तितकाच विध्वंसकवृत्तीने उपयोग करण्यात येत असल्याचे दिसते. हे शस्त्र अणुबॉम्बसारखे नसले तरी या कथित शस्त्राने रक्तपाताशिवाय अनेकांच्या आयुष्यांची राख-रांगोळी करण्याचे काम केले आहे. डीपफेक तंत्रज्ञान मुळात हायपर-रिअॅलिस्टिक डिजिटल फॉल्सिफिकेशन आहे. हे माध्यम, व्यक्ती किंवा संस्था यांना हानी पोहचविण्याकरिता वापरण्यात येते. अगदीच सोप्या भाषेत एखादे उदाहरण द्यायचे झाले तर, एखाद्या प्रतिमेत किंवा व्हिडीओमध्ये प्रत्यक्ष तुम्ही हजर नसलात तरी दुसऱ्या एखाद्या व्यक्तीच्या चेहऱ्यावर तुमचा फोटो (प्रतिमा) चपखल या तंत्रज्ञानाच्या साहाय्याने लावता येतो. म्हणूनच या तंत्रज्ञानाचा वापर मोठ्या प्रमाणात अश्लील डीपफेक व्हिडीओ तयार करण्यासाठी केला जात आहे. एखाद्या व्यक्तीचा चेहरा वापरून अश्लील दृक्-श्राव्य चित्रण, या माध्यमात केले जाते. आर्टिफिशियल इंटेलिजन्स (AI) निर्मित सिंथेटिक मीडिया किंवा डीपफेकचे काही विशिष्ट क्षेत्रांमध्ये फायदे असले तरी, या सिंथेटिक मीडिया तंत्रज्ञानाचा वापर जसजसा वाढत आहे, त्याच वेगाने त्याच्या वापरातून निर्माण होणारा शोषणाचा धोकाही वाढताना दिसत आहे. इतकेच नाही तर डीपफेकचा वापर अप्रतिष्ठेसाठी, एखाद्याच्या विरोधात खोटे पुरावे तयार करण्यासाठी, जनतेची फसवणूक करण्यासाठी होताना दिसत आहे.

Counseling center for victimized women in Thane district
ठाणे जिल्ह्यात पीडित महिलांसाठी समुपदेशन केंद्र
sunlight vitamin d
सूर्यप्रकाश भरपूर प्रमाणात असूनही भारतीयांमध्ये ‘Vitamin D’ची कमतरता…
Viral Video Of Girls Hostel
आनंदच निराळा…! अंघोळीसाठी रांगा, केसांत ब्रश अन्… VIRAL VIDEO पाहून डोळ्यांसमोर येईल तुमची ‘हॉस्टेल लाईफ’
Crime case against a motorist, pune, motorist act bad with woman, pune news, pune latest news,
पुणे : महिलेशी अश्लील कृत्य करणाऱ्या मोटारचालकावर गुन्हा
Bull attacked a person while he was dancing in front of him viral video on social media
बैलाशी मस्ती आली अंगाशी! माणसाच्या ‘या’ कृत्यामुळे बैल पिसाळला, शिंगाने उडवलं अन्…, VIDEO मध्ये पाहा नेमकं काय झालं?
Shocking video Woman beat elderly wheelchair bound father in law hit with slippers viral video from telangana
VIDEO: “तु सुद्धा म्हातारी होणारच आहेस” सुनेनं गाठला क्रूरतेचा कळस; व्हिलचेअरवर बसलेल्या सासऱ्यासोबत अमानुष कृत्य
school girl and her brother molested by minors who threatened to kill her
जिवे मारण्याची धमकी देऊन शाळकरी मुलीशी अश्लील कृत्य, अल्पवयीनांविरुद्ध गुन्हा दाखल
Shocking video You have never seen such a theft clothes theft caught on cctv goes viral
Shocking video: अशी चोरी तुम्ही आजपर्यंत पाहिली नसेल; अख्ख कुटुंब येतं उभं राहतं अन्…VIDEO पाहून आत्ताच सावध व्हा

आणखी वाचा : विश्लेषण: मोहम्मद बिन तुघलकला ‘लहरी मोहम्मद’ का म्हणायचे? जितेंद्र आव्हाडांनी थेट नोटबंदीच्या निर्णयाशी त्याचा संबंध का लावलाय?

डीपफेक तंत्रज्ञानाच्या सर्वाधिक बळी या ‘महिला’

या आधी नमूद केल्याप्रमाणे या तंत्रज्ञानाचा वापर अश्लील व्हिडीओ तयार करण्यासाठी मोठ्या प्रमाणावर होत आहे. म्हणूनच या तंत्रज्ञानाच्या बळी बहुतांश महिला आणि मुली आहेत. महिलांच्या चेहऱ्याचा वापर पॉर्न व्हिडीओमध्ये करण्यात येतो. म्हणूनच तज्ज्ञांच्या मते हे तंत्रज्ञान महिलांवरील हिंसाचाराला मुक्तपणे खतपाणी घालण्याचे माध्यम झाले आहे. किंबहुना sensity.ai यांनी नोंदविलेल्या आकडेवारीनुसार ९६ टक्के पोर्नोग्राफिक व्हिडीओ हे डीपफेक तंत्रज्ञानाच्या माध्यमातून तयार करण्यात आलेले आहेत. तसेच अशा स्वरूपाच्या पोर्नोग्राफिक व्हिडीओंना दीड कोटीपेक्षा अधिक व्ह्यूज असल्याचेही नोंदविले आहे. हे प्रकरण इतक्यावरच थांबत नाही तर अशा स्वरूपाचे खोटे व्हिडीओ तयार करणारे, ज्या महिलांचे खरे फोटो आहेत त्या महिलांना ब्लॅकमेल करून खंडणी मिळविण्याचा प्रयत्न करतात. यामुळे अनेक स्त्रियांवर मानसिक त्रासाला सामोरे जाण्याची वेळ आली आहे. कित्येकींवर यामुळे सामाजिक मानहानीला सामोरे जात आपल्या नोकऱ्या गमविण्याची वेळ आली आहे. मेगन फारोखमानेश यांनी ‘वायर्ड’ या मासिकातील The Debate on Deepfake Porn Misses the Point’ या लेखात नमूद केल्याप्रमाणे डीपफेक तंत्रज्ञानाच्या मदतीने जरी खोटा व्हिडीओ तयार केलेला असला तरी त्यातून पीडितेवर झालेला परिणाम कमी होणारा नसतो. एका पीडितेने दिलेल्या प्रतिक्रियेनुसार व्हिडीओत दाखवलेले शरीर तुमचे नसले तरी ते तुमचेच आहे असे दाखविले जाते, हेदेखील तुमच्या मर्यादांचे उल्लंघन करण्यासारखे आहे. पोर्नोग्राफी आणि महिलांवरील लैंगिक हिंसाचार यांच्यात जवळचा संबंध आहे. अशा प्रकारे सामान्य महिलांच्या चेहऱ्याचा पोर्नोग्राफीतील वापर हा त्यांच्यावरील हिंसाराचात वाढीचेच काम करतो अशी चिंता तज्ज्ञ व्यक्त करत आहेत.

डीपफेकचे परिणाम

डीपफेकद्वारे एखाद्या व्यक्तीला कुठल्याही असामाजिक कृत्यात गुंतविता येते. हे तंत्रज्ञान प्रगत असल्याने व्हिडीओ किंवा प्रतिमेत दाखविलेली व्यक्ती खरी की खोटी हेच प्रथमदर्शनी सांगणे कठीण होते. या तंत्रज्ञानाचा बळी पडलेली व्यक्ती या विरोधात न्याय मागू शकते. परंतु या विरोधात ठोस कायदे अद्याप झालेले नाहीत. किंबहुना या न्यायदानाच्या प्रक्रियेत उशीर झाल्याचेच चित्र समोर आले आहे. त्यामुळे पीडितेला गंभीर मानसिक आजार व सामाजिक हानीला बळी पडावे लागते. डीपफेक हे लघू तसेच दीर्घकालीन परिणाम करणारे आहे.

आणखी वाचा : विश्लेषण: अणुबॉम्बचे जनक ओपेनहायमर यांना कुरुक्षेत्रावरील श्रीकृष्णाचे विराट रूप का आठवले होते?

डीपफेकचे संभाव्य परिणाम

डीपफेक तंत्रज्ञानाच्या माध्यमातून राष्ट्राराष्ट्रांतील संबंधांमध्येही तणाव निर्माण होऊ शकतात. देशात अराजक निर्माण करून राष्ट्राच्या सुरक्षेला बाधा पोहोचविण्याचे काम या माध्यमातून तडीस नेले जाऊ शकते. त्यामुळे सामान्यांमधील देशाच्या सुरक्षायंत्रणेवरील विश्वासार्हतेला तडा जाऊ शकतो. या माध्यमाचा वापर करून लोकांमध्ये असंतोषाची भावना निर्माण करून दंगलींसारखे प्रकार घडविण्यात येऊ शकतात. राजकारणात आपल्या विरोधकांची या तंत्रज्ञानाच्या माध्यमातून बेअब्रू करता येऊ शकते.

उपाय

‘मीडिया लिटरसी’ म्हणजेच प्रसारमाध्यम-साक्षरता हा डीपफेक तंत्रज्ञानाच्या नकारात्मक परिणामांवर उत्तम उपाय मानला जात आहे. खोटी माहिती पसरविणाऱ्या माध्यमांना आळा बसविण्यात प्रसारमाध्यम-साक्षरता उपयोगी ठरू शकते असे मानले जाते, किंबहुना अनेक सोशल मीडिया प्लॅटफॉर्मनी AI तंत्रज्ञानाचा चुकीचा वापर टाळण्यासाठी आपल्या पातळीवर काही अटी व नियमावली केल्या आहेत. डीपफेकसारख्या गोष्टींवर नियंत्रण मिळविण्याकरिता कायदेशीर नियमावलींचीदेखील गरज आहे.
तसेच आपल्या वैयक्तिक पातळीवर समाजमाध्यमांवर काहीही शेअर करताना काळजी घेणे गरजेचे आहे. किंबहुना जगभरातील अनेक तज्ज्ञांनी या तंत्रज्ञाविषयी चिंता व्यक्त केली आहे. त्यात युवल नोह हरारी यांचे मत विचारात घेणे गरजेचे आहे. युवल नोह हरारी ‘सेपियन्स’ या सर्वाधिक खपाच्या पुस्तकाचे लेखक आहेत. त्यांनी AI तंत्रज्ञानावर कडक नियमावली लागू करावी, असा आग्रह धरला आहे. त्यांनी व्यक्त केलेल्या मतानुसार ‘एआय’ नियंत्रणाबाहेर जाण्यापूर्वी आपल्याला त्वरित काहीतरी करणे गरजेचे आहे. ज्याप्रमाणे एखादी औषध कंपनी औषधाची पूर्ण चाचणी केल्याशिवाय ते औषध बाजारात आणू शकत नाही, त्याप्रमाणे या तंत्रज्ञानाची पूर्ण पडताळणी केल्याशिवाय हे तंत्रज्ञान वापरणे चुकीचे आहे.

Story img Loader