काळानुसार कृत्रिम बुद्धीमत्ता (एआय) तंत्रज्ञानात बरेच बदल होत आहेत. आज आपण रोज अनेक ऑडिओ आणि व्हिडीओ असे पाहतो, ज्यात किती तथ्यता आहे, हे आपल्यालाच माहिती नसते. आजच्या काळात एखाद्या व्यक्तीची बनावट (डीपफेक) व्हिडीओ किंवा ऑडिओ क्लीप तयार करणे फार सोपे झाले आहे. सध्या निवडणुकीचा काळ आहे. डीपफेकचे हे तंत्रज्ञान याआधी राजकीय क्षेत्रातही वापरले गेले आहे. या तंत्रज्ञानातील प्रगती पाहून या निवडणुकीच्या काळात एखाद्या नेत्याच्या नावे बनावट ऑडिओ किंवा व्हिडीओ समाजमाध्यमांत पसरवला जाण्याची शक्यता आहे. डीपफेकचे तंत्रज्ञान वापरून नेत्याच्या नावाने चुकीची माहिती पसरवली जाऊ शकते. याच पार्श्वभूमीवर एखाद्या नेत्याच्या नावाचा बनावट व्हिडीओ किंवा ऑडिओ कसा ओळखावा? आपण जागरूक कसे राहवे? हे जाणून घेऊ या…

डीपफेकसाठी कृत्रिम बुद्धीमत्तेचा केला जातो वापर

सध्या देशभरात निवडणुकीचे वातावरण आहे. अशा काळात राजकीय नेत्यांच्या नावे चुकीची माहिती पसरण्याची शक्यता आहे. त्यासाठी डीपफेक तंत्रज्ञान वापरले जाऊ शकते. त्यामुळे अशा प्रकारच्या बनावट व्हिडीओ आणि ऑडिओ क्लीप ओळखणे गरजेचे आहे. मुळात डीपफेक व्हिडीओ किंवा ऑडिओ हे कृत्रिम बुद्धीमत्तेचा वापर करून तयार केले जातात. त्यासाठी डीप लर्निंग अल्गोरिदमचा वापर केला जातो. गेल्या काही वर्षांत हे तंत्रज्ञान आणखी प्रगत झालेले आहे. त्यामुळे डीप लर्निंग अल्गोरिदमचा वापर करून एखाद्या व्यक्तीचा हुबेहुब आवाज आणि चेहरा निर्माण करता येऊ शकतो.

On Friday Rahul Gandhi spoke with Prakash Ambedkar he said he will campaign against his candidate
‘तुमच्या उमेदवाराच्या…’ॲड. प्रकाश आंबेडकर व राहुल गांधींमध्ये नेमकी काय चर्चा
Nana Patole On Devendra Fadnavis :
Nana Patole : निकालाआधी राजकीय घडामोडींना वेग; यातच…
dcm devendra fadnavis in loksatta loksamvad
लोकसभेतील अपयशानंतर ‘भारत जोडो’सारख्या शक्तींवर मात; विधानसभेत प्रभाव नसल्याचे देवेंद्र फडणवीस यांचे प्रतिपादन
Panvel issue of commuters loot of passengers Panvel,
पनवेल : प्रवाशांच्या समस्यांचा मुद्दा प्रचारातून गायब, रिक्षाचालकांकडून प्रवाशांची लूट, असुरक्षित प्रवासाबाबत सर्वपक्षीय नेते गप्पच
Rajasthan By-Election Independent candidate assault SDM
Rajasthan By-Election : अपक्ष उमेदवाराची अधिकाऱ्याला मारहाण; कार्यकर्त्यांकडून पोलिसांवर दगडफेक, वाहनं पेटवली, जिल्ह्यात तणाव
those claiming hindus in danger denying reservation to marathas says manoj jarange patil
‘हिंदू खतरे में’ म्हणणाऱ्यांचे मराठ्यांकडे दुर्लक्ष; मनोज जरांगे यांची महायुतीवर टीका
Maharashtra kunbi vidhan sabha
कुणबी समाजाला डावलल्याची खंत, यवतमाळात तिसरा पर्याय देण्याचा प्रयत्न
Sudhir Mungantiwar, Sudhir Mungantiwar Nagpur,
काँग्रेसची सध्याची अवस्था ‘चाची ४२०’ प्रमाणे, मुनगंटीवार यांची टीका

बनावट ऑडिओ क्लीप कशी तयार केली जाते?

कोणत्याही व्यक्तीच्या बनावट आवाजाची निर्मिती करणे फार सोपे आहे. त्यासाठी फक्त चांगले इंटरनेट कनेक्शन आणि ज्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची आहे, त्याच्या एका खऱ्या ऑडिओ क्लीपची गरज असते. या दोन गोष्टी असल्यास बनावट ऑडिओ तयार करता येतो. अशाच प्रकारचे ऑडिओ तयार करणाऱ्या शिवा नावाच्या एका व्यक्तीशी ‘इंडियन एक्स्प्रेस’ने चर्चा केली. या व्यक्तीने सांगितल्यानुसार covers.ai सारखे संकेतस्थळ वापरून अवघ्या पाच मिनिटांत बनावट ऑडिओ क्लीप तयार करता येते. “या जगात प्रत्येकजण आपला बनावट व्हिडीओ तयार करू शकतो. त्यासाठी थोडेफार पैसे द्यावे लागतात. बनावट ऑडिओ क्लीप तयार करायची असेल तर संबंधित व्यक्तीची कमीत कमी ३ मिनिटांची खरीखुरी ऑडिओ क्लीप गरजेची असते. त्या ऑडिओ क्लीपच्या मदतीने बनावट ऑडिओ क्लीप तयार केली जाते. त्यासाठी भरपूर संकेतस्थळ उपलब्ध असून काही पैसे दिल्यास आपल्याला हवा असलेला आवाज तयार करून मिळतो. अशाच बनावट ऑडिओ क्लीपच्या मदतीने गाणीदेखील तयार करता येतात,” असे या व्यक्तीने सांगितले.

यासह बनावट आवाज तयार करण्यासाठी वेगवेगळे शेकडो ऑनलाईन टूल्स उपलब्ध आहेत. एआयच्या मदतीने आवाजाची निर्मिती करण्याची प्रक्रिया सांगणारे शेकडो व्हिडीओ यूट्यूबवर उपलब्ध आहेत.

डीपफेक ऑडिओ शोधणे कठीण का?

यापूर्वी डीपफेक ऑडिओ ओळखणे तुलनेने सोपे असायचे. कारण अशा प्रकारचे ऑडिओ हे रोबोटिक होते. हा खराखुरा आवाज नाही, असे लगेच ओळखायला यायचे. मात्र आता तंत्रज्ञानात मोठी प्रगती झाली आहे. याबाबत बोलताना एशिया सोफोस या आयटी सेक्युरिटी कंपनीचे पदाधिकारी अरॉन बुगल यांनी माहिती दिली. “सध्या समाजमाध्यांवर अनेक प्रकारचे व्हिडीओ आणि ऑडिओ अपलोड केले जातात. याच कन्टेंचा वापर करून अधिक प्रगत एआयच्या मदतीने डीपफेक व्हिडीओ आणि फोटो तयार केले जात आहेत. हे टाळायचे असेल तर समाजमाध्यमांवरील आपले खाते प्रायव्हेट करून ठेवणे तसेच खाते आपल्या ओळखीच्या लोकांपर्यंतच मर्यादित ठेवणे हा एक पर्याय आहे. मात्र आपल्या ओळखीच्या लोकांपैकी कोणाही अशा प्रकारे डीपफेक व्हिडीओ, ऑडिओ किंवा फोटो तयार करणार नाही, याची शास्वती नाही,” असे अरॉन यांनी सांगितले.

बनावट ऑडिओ, व्हिडीओ रोखण्याचा पर्याय काय?

डीपफेक तंत्रज्ञानाचा चुकीचा गैरवापर टाळायचा असेल तर प्रशासनाने अशा प्रकारच्या ऑडिओ, व्हिडीओंना प्रोत्साहन देणारी समाजमाध्यमावरची खाती बंद करायला हवीत, असे अरॉन यांनी सांगितले. “भारतातील इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान विभागाने समाजमाध्यम मंचांना डीपफेक ऑडिओ आणि व्हिडीओंचा सामना करण्याचा सल्ला द्यायला हवा. डीपफेक ऑडिओ आणि व्हिडीओ हटवण्यात अपयश आल्यास अशा प्रकारच्या सोशल मीडिया मंचांना कारवाईस सामोरे जावे लागेल, असेही सरकारने सांगितले पाहिजे. सरकारने अशा प्रकारची भूमिका घेतल्यास डीफफेक ऑडिओ, व्हिडीओ किंवा फोटोंचे प्रमाण कमी होण्यास मदत होईल,” असे बुगल यांनी सांगितले.

कन्टेंट डिजिटली साक्षांकित असणे हा पर्याय

“सध्या इंटरनेटवर असणारे व्हिडीओ खरे आहेत हे ग्रहित धरण्यासाठी निश्चित अशी प्रक्रिया असायला हवी. त्यासाठी व्हिडीओ डिजिटली साक्षांकित असायला हवेत. म्हणजेच जे व्हिडीओ डिजिटली साक्षांकित आहेत ते खरेखुरे आहेत, असे ग्राह्य धरता येईल. सध्या तंत्रज्ञानाचा विकास होत असून अगदी कमी काळात डीपफेक कन्टेंट तयार होत आहे. विशेष म्हणजे डीपफेक कन्टेंटच्या गुणवत्तेतही काळानुसार सुधारणा होत आहे. भविष्यात असाही काळ येऊ शकतो, जेव्हा खरा आणि बनावट व्हिडीओ ओळखणे कठीण होऊ शकते. त्यामुळे इंटरनेटवर असणारे कन्टेंट खरे आहे हे समजण्यासाठी ते डिजिटली सांक्षांकित किंवा प्रमाणित करणे गरजेचे आहे,” असेही बुगल म्हणाले.

डीपफेक ऑडिओ, व्हिडीओ कसा ओळखावा?

एआयच्या मदतीने एखाद्या राजकीय व्यक्तीचा तयार करण्यात आलेला डीपफेक व्हिडीओ आणि ऑडिओ ओळखण्यासाठी नेहमी जागरूक असणे गरजेचे आहे. त्यासाठी खालील गोष्टी करता येतील.

राजकारणातील माहिती ठेवणे : राजकारणात रोज अनेक घडामोडी घडत असतात. त्यामुळे आपल्या देशात, राज्यात काय घडत आहे, त्याकडे लक्ष द्यावे. कोणता राजकीय नेता काय म्हणाला? हे तुम्हाला माहीत असायला हवे. त्यामुळे एखादा डीपफेक व्हिडीओ किंवा ऑडिओ समोर आलाच, तर नेमके सत्य काय? हे तुम्हाला समजू शकेल. तुम्ही खोट्या प्रचाराला बळी पडणार नाहीत.

शेअर करण्याआधी सत्यता तपासा : एखादा व्हिडीओ किंवा ऑडिओ तुमच्याकडे आलाच तर तो शेअर करण्याआधी त्याची सत्यता तपासा. व्हिडीओ किंवा ऑडिओची सत्यता तपासण्यासाठी इंटरनेटवर अनेक एआय व्हिडीओ डिटेक्टर्स उपलब्ध आहेत. ऑडिओची सत्यता तपासण्यासाठीदेखील अशा प्रकारचे एआय टूल उपलब्ध आहेत. aivoicedetector.com, play.ht अशी त्याची काही उदाहरणे आहेत. त्यांची मदत घेऊन व्हिडीओ आणि ऑडिओची सत्यता तपासली जाऊ शकते.

निवडणुकीच्या काळात आपण का काळजी घ्यावी?

डीपफेक ऑडिओ आणि व्हिडीओ तयार करण्यासाठी फक्त दोन किंवा तीन मिनिटांची क्लीप पुरेशी आहे. इंटरनेटवर राजकीय नेत्यांच्या अनेक ऑडिओ आणि व्हिडीओ क्लीप उपलब्ध आहेत. त्यामुळे अशा प्रकारचे डीपफेक ऑडिओ किंवा व्हिडीओ तयार करणे फार अवघड बाब नाही. अशा व्हिडीओ किंवा ऑडिओंमुळे जनमतावर प्रभाव पडू शकतो. तसेच निवडणुकीतील उमेदवाराच्या प्रतिमेलाही धक्का पोहोचू शकतो. लोकशाही पद्धतीने घेतल्या जाणाऱ्या निवडणुकीवर त्याचा परिणाम पडू शकतो. त्यामुळे निवडणुकीच्या काळात डीपफेक व्हिडीओ आणि ऑडिओंपासून सावध राहिले पाहिजे. अशा प्रकारचे व्हिडीओ समोर आलेच तर पोलीस भारतीय दंड संहिता आणि आयटी कायद्याच्या कलमाअंतर्गत कारवाई करतात.