काळानुसार कृत्रिम बुद्धीमत्ता (एआय) तंत्रज्ञानात बरेच बदल होत आहेत. आज आपण रोज अनेक ऑडिओ आणि व्हिडीओ असे पाहतो, ज्यात किती तथ्यता आहे, हे आपल्यालाच माहिती नसते. आजच्या काळात एखाद्या व्यक्तीची बनावट (डीपफेक) व्हिडीओ किंवा ऑडिओ क्लीप तयार करणे फार सोपे झाले आहे. सध्या निवडणुकीचा काळ आहे. डीपफेकचे हे तंत्रज्ञान याआधी राजकीय क्षेत्रातही वापरले गेले आहे. या तंत्रज्ञानातील प्रगती पाहून या निवडणुकीच्या काळात एखाद्या नेत्याच्या नावे बनावट ऑडिओ किंवा व्हिडीओ समाजमाध्यमांत पसरवला जाण्याची शक्यता आहे. डीपफेकचे तंत्रज्ञान वापरून नेत्याच्या नावाने चुकीची माहिती पसरवली जाऊ शकते. याच पार्श्वभूमीवर एखाद्या नेत्याच्या नावाचा बनावट व्हिडीओ किंवा ऑडिओ कसा ओळखावा? आपण जागरूक कसे राहवे? हे जाणून घेऊ या…

डीपफेकसाठी कृत्रिम बुद्धीमत्तेचा केला जातो वापर

सध्या देशभरात निवडणुकीचे वातावरण आहे. अशा काळात राजकीय नेत्यांच्या नावे चुकीची माहिती पसरण्याची शक्यता आहे. त्यासाठी डीपफेक तंत्रज्ञान वापरले जाऊ शकते. त्यामुळे अशा प्रकारच्या बनावट व्हिडीओ आणि ऑडिओ क्लीप ओळखणे गरजेचे आहे. मुळात डीपफेक व्हिडीओ किंवा ऑडिओ हे कृत्रिम बुद्धीमत्तेचा वापर करून तयार केले जातात. त्यासाठी डीप लर्निंग अल्गोरिदमचा वापर केला जातो. गेल्या काही वर्षांत हे तंत्रज्ञान आणखी प्रगत झालेले आहे. त्यामुळे डीप लर्निंग अल्गोरिदमचा वापर करून एखाद्या व्यक्तीचा हुबेहुब आवाज आणि चेहरा निर्माण करता येऊ शकतो.

देवेंद्र फडणवीसांची मुख्यमंत्रीपदी निवड करताना पडद्यामागे काय घडलं? बावनकुळे म्हणाले... (फोटो सौजन्य लोकसत्ता ग्राफिक्स टीम)
Maharashtra Politics : देवेंद्र फडणवीसांची मुख्यमंत्रीपदी निवड करताना पडद्यामागे काय घडलं?
sunlight vitamin d
सूर्यप्रकाश भरपूर प्रमाणात असूनही भारतीयांमध्ये ‘Vitamin D’ची कमतरता…
Rahul Narwekar
Rahul Narwekar : संख्याबळ नाही तरीही मविआला विरोधी पक्षनेतेपद देणार का? राहुल नार्वेकरांनी स्पष्टच सांगितलं
Rahul narvekar
विरोधी पक्षनेतेपदासाठी अद्याप अर्जच नाही, विधानसभा अध्यक्ष राहुल नार्वेकर यांचे स्पष्टीकरण
News About Loksabha
Parliament : संसदेत उफाळून आलेला विधेयकांच्या नावांचा वाद काय? विरोधी पक्षांनी नेमकं काय म्हटलं आहे?
jayant patil rahul narvekar
Video: “राहुल नार्वेकरांनी दिलेल्या निकालावर सर्वोच्च न्यायालय अजून विचार करतंय”, जयंत पाटील यांची टोलेबाजी!
Chief Minister Devendra Fadnavis criticizes Sharad Pawar over assembly election defeat pune news
‘संयमाने वागून नेत्यांनी पराभव स्वीकारावा’; मुख्यमंत्री देवेंद्र फडणवीस यांची शरद पवारांवर टीका
Sharad Pawar asserts that distrust in the electoral system should be removed print politics news
मारकडवाडीवरून कलगीतुरा, निवडणूक यंत्रणेबद्दल अविश्वास दूर करा; शरद पवारांचे मारकरवाडीत प्रतिपादन

बनावट ऑडिओ क्लीप कशी तयार केली जाते?

कोणत्याही व्यक्तीच्या बनावट आवाजाची निर्मिती करणे फार सोपे आहे. त्यासाठी फक्त चांगले इंटरनेट कनेक्शन आणि ज्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची आहे, त्याच्या एका खऱ्या ऑडिओ क्लीपची गरज असते. या दोन गोष्टी असल्यास बनावट ऑडिओ तयार करता येतो. अशाच प्रकारचे ऑडिओ तयार करणाऱ्या शिवा नावाच्या एका व्यक्तीशी ‘इंडियन एक्स्प्रेस’ने चर्चा केली. या व्यक्तीने सांगितल्यानुसार covers.ai सारखे संकेतस्थळ वापरून अवघ्या पाच मिनिटांत बनावट ऑडिओ क्लीप तयार करता येते. “या जगात प्रत्येकजण आपला बनावट व्हिडीओ तयार करू शकतो. त्यासाठी थोडेफार पैसे द्यावे लागतात. बनावट ऑडिओ क्लीप तयार करायची असेल तर संबंधित व्यक्तीची कमीत कमी ३ मिनिटांची खरीखुरी ऑडिओ क्लीप गरजेची असते. त्या ऑडिओ क्लीपच्या मदतीने बनावट ऑडिओ क्लीप तयार केली जाते. त्यासाठी भरपूर संकेतस्थळ उपलब्ध असून काही पैसे दिल्यास आपल्याला हवा असलेला आवाज तयार करून मिळतो. अशाच बनावट ऑडिओ क्लीपच्या मदतीने गाणीदेखील तयार करता येतात,” असे या व्यक्तीने सांगितले.

यासह बनावट आवाज तयार करण्यासाठी वेगवेगळे शेकडो ऑनलाईन टूल्स उपलब्ध आहेत. एआयच्या मदतीने आवाजाची निर्मिती करण्याची प्रक्रिया सांगणारे शेकडो व्हिडीओ यूट्यूबवर उपलब्ध आहेत.

डीपफेक ऑडिओ शोधणे कठीण का?

यापूर्वी डीपफेक ऑडिओ ओळखणे तुलनेने सोपे असायचे. कारण अशा प्रकारचे ऑडिओ हे रोबोटिक होते. हा खराखुरा आवाज नाही, असे लगेच ओळखायला यायचे. मात्र आता तंत्रज्ञानात मोठी प्रगती झाली आहे. याबाबत बोलताना एशिया सोफोस या आयटी सेक्युरिटी कंपनीचे पदाधिकारी अरॉन बुगल यांनी माहिती दिली. “सध्या समाजमाध्यांवर अनेक प्रकारचे व्हिडीओ आणि ऑडिओ अपलोड केले जातात. याच कन्टेंचा वापर करून अधिक प्रगत एआयच्या मदतीने डीपफेक व्हिडीओ आणि फोटो तयार केले जात आहेत. हे टाळायचे असेल तर समाजमाध्यमांवरील आपले खाते प्रायव्हेट करून ठेवणे तसेच खाते आपल्या ओळखीच्या लोकांपर्यंतच मर्यादित ठेवणे हा एक पर्याय आहे. मात्र आपल्या ओळखीच्या लोकांपैकी कोणाही अशा प्रकारे डीपफेक व्हिडीओ, ऑडिओ किंवा फोटो तयार करणार नाही, याची शास्वती नाही,” असे अरॉन यांनी सांगितले.

बनावट ऑडिओ, व्हिडीओ रोखण्याचा पर्याय काय?

डीपफेक तंत्रज्ञानाचा चुकीचा गैरवापर टाळायचा असेल तर प्रशासनाने अशा प्रकारच्या ऑडिओ, व्हिडीओंना प्रोत्साहन देणारी समाजमाध्यमावरची खाती बंद करायला हवीत, असे अरॉन यांनी सांगितले. “भारतातील इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान विभागाने समाजमाध्यम मंचांना डीपफेक ऑडिओ आणि व्हिडीओंचा सामना करण्याचा सल्ला द्यायला हवा. डीपफेक ऑडिओ आणि व्हिडीओ हटवण्यात अपयश आल्यास अशा प्रकारच्या सोशल मीडिया मंचांना कारवाईस सामोरे जावे लागेल, असेही सरकारने सांगितले पाहिजे. सरकारने अशा प्रकारची भूमिका घेतल्यास डीफफेक ऑडिओ, व्हिडीओ किंवा फोटोंचे प्रमाण कमी होण्यास मदत होईल,” असे बुगल यांनी सांगितले.

कन्टेंट डिजिटली साक्षांकित असणे हा पर्याय

“सध्या इंटरनेटवर असणारे व्हिडीओ खरे आहेत हे ग्रहित धरण्यासाठी निश्चित अशी प्रक्रिया असायला हवी. त्यासाठी व्हिडीओ डिजिटली साक्षांकित असायला हवेत. म्हणजेच जे व्हिडीओ डिजिटली साक्षांकित आहेत ते खरेखुरे आहेत, असे ग्राह्य धरता येईल. सध्या तंत्रज्ञानाचा विकास होत असून अगदी कमी काळात डीपफेक कन्टेंट तयार होत आहे. विशेष म्हणजे डीपफेक कन्टेंटच्या गुणवत्तेतही काळानुसार सुधारणा होत आहे. भविष्यात असाही काळ येऊ शकतो, जेव्हा खरा आणि बनावट व्हिडीओ ओळखणे कठीण होऊ शकते. त्यामुळे इंटरनेटवर असणारे कन्टेंट खरे आहे हे समजण्यासाठी ते डिजिटली सांक्षांकित किंवा प्रमाणित करणे गरजेचे आहे,” असेही बुगल म्हणाले.

डीपफेक ऑडिओ, व्हिडीओ कसा ओळखावा?

एआयच्या मदतीने एखाद्या राजकीय व्यक्तीचा तयार करण्यात आलेला डीपफेक व्हिडीओ आणि ऑडिओ ओळखण्यासाठी नेहमी जागरूक असणे गरजेचे आहे. त्यासाठी खालील गोष्टी करता येतील.

राजकारणातील माहिती ठेवणे : राजकारणात रोज अनेक घडामोडी घडत असतात. त्यामुळे आपल्या देशात, राज्यात काय घडत आहे, त्याकडे लक्ष द्यावे. कोणता राजकीय नेता काय म्हणाला? हे तुम्हाला माहीत असायला हवे. त्यामुळे एखादा डीपफेक व्हिडीओ किंवा ऑडिओ समोर आलाच, तर नेमके सत्य काय? हे तुम्हाला समजू शकेल. तुम्ही खोट्या प्रचाराला बळी पडणार नाहीत.

शेअर करण्याआधी सत्यता तपासा : एखादा व्हिडीओ किंवा ऑडिओ तुमच्याकडे आलाच तर तो शेअर करण्याआधी त्याची सत्यता तपासा. व्हिडीओ किंवा ऑडिओची सत्यता तपासण्यासाठी इंटरनेटवर अनेक एआय व्हिडीओ डिटेक्टर्स उपलब्ध आहेत. ऑडिओची सत्यता तपासण्यासाठीदेखील अशा प्रकारचे एआय टूल उपलब्ध आहेत. aivoicedetector.com, play.ht अशी त्याची काही उदाहरणे आहेत. त्यांची मदत घेऊन व्हिडीओ आणि ऑडिओची सत्यता तपासली जाऊ शकते.

निवडणुकीच्या काळात आपण का काळजी घ्यावी?

डीपफेक ऑडिओ आणि व्हिडीओ तयार करण्यासाठी फक्त दोन किंवा तीन मिनिटांची क्लीप पुरेशी आहे. इंटरनेटवर राजकीय नेत्यांच्या अनेक ऑडिओ आणि व्हिडीओ क्लीप उपलब्ध आहेत. त्यामुळे अशा प्रकारचे डीपफेक ऑडिओ किंवा व्हिडीओ तयार करणे फार अवघड बाब नाही. अशा व्हिडीओ किंवा ऑडिओंमुळे जनमतावर प्रभाव पडू शकतो. तसेच निवडणुकीतील उमेदवाराच्या प्रतिमेलाही धक्का पोहोचू शकतो. लोकशाही पद्धतीने घेतल्या जाणाऱ्या निवडणुकीवर त्याचा परिणाम पडू शकतो. त्यामुळे निवडणुकीच्या काळात डीपफेक व्हिडीओ आणि ऑडिओंपासून सावध राहिले पाहिजे. अशा प्रकारचे व्हिडीओ समोर आलेच तर पोलीस भारतीय दंड संहिता आणि आयटी कायद्याच्या कलमाअंतर्गत कारवाई करतात.

Story img Loader