काळानुसार कृत्रिम बुद्धीमत्ता (एआय) तंत्रज्ञानात बरेच बदल होत आहेत. आज आपण रोज अनेक ऑडिओ आणि व्हिडीओ असे पाहतो, ज्यात किती तथ्यता आहे, हे आपल्यालाच माहिती नसते. आजच्या काळात एखाद्या व्यक्तीची बनावट (डीपफेक) व्हिडीओ किंवा ऑडिओ क्लीप तयार करणे फार सोपे झाले आहे. सध्या निवडणुकीचा काळ आहे. डीपफेकचे हे तंत्रज्ञान याआधी राजकीय क्षेत्रातही वापरले गेले आहे. या तंत्रज्ञानातील प्रगती पाहून या निवडणुकीच्या काळात एखाद्या नेत्याच्या नावे बनावट ऑडिओ किंवा व्हिडीओ समाजमाध्यमांत पसरवला जाण्याची शक्यता आहे. डीपफेकचे तंत्रज्ञान वापरून नेत्याच्या नावाने चुकीची माहिती पसरवली जाऊ शकते. याच पार्श्वभूमीवर एखाद्या नेत्याच्या नावाचा बनावट व्हिडीओ किंवा ऑडिओ कसा ओळखावा? आपण जागरूक कसे राहवे? हे जाणून घेऊ या…

डीपफेकसाठी कृत्रिम बुद्धीमत्तेचा केला जातो वापर

सध्या देशभरात निवडणुकीचे वातावरण आहे. अशा काळात राजकीय नेत्यांच्या नावे चुकीची माहिती पसरण्याची शक्यता आहे. त्यासाठी डीपफेक तंत्रज्ञान वापरले जाऊ शकते. त्यामुळे अशा प्रकारच्या बनावट व्हिडीओ आणि ऑडिओ क्लीप ओळखणे गरजेचे आहे. मुळात डीपफेक व्हिडीओ किंवा ऑडिओ हे कृत्रिम बुद्धीमत्तेचा वापर करून तयार केले जातात. त्यासाठी डीप लर्निंग अल्गोरिदमचा वापर केला जातो. गेल्या काही वर्षांत हे तंत्रज्ञान आणखी प्रगत झालेले आहे. त्यामुळे डीप लर्निंग अल्गोरिदमचा वापर करून एखाद्या व्यक्तीचा हुबेहुब आवाज आणि चेहरा निर्माण करता येऊ शकतो.

Why were local elections delayed in the state
राज्यात स्थानिक निवडणुका लांबणीवर का पडल्या? तिसरी बाजी कोणाची? 
Mulund renamed new Dharavi Dharavi redevelopment rehabilitation Mulund residents agitated boards
‘मुलुंडचे लवकरच नवीन धारावी नामांतर’, संतप्त मुलुंडवासियांकडून मुलुंडमध्ये…
BJP vs Congress which political party has bigger bank balance
BJP vs Congress : भाजपा आणि काँग्रेस… दोन्ही पक्षांच्या बँक बॅलन्समध्ये नेमका फरक किती? निवडणूक आयोगाच्या डेटामधून समोर आली माहिती
One Nation One Election
One Nation One Election : ‘एक देश, एक निवडणूक’ अहवालाच्या मसूद्यासाठी किती पैसे खर्च झाले? सरकारने सांगितलेल्या आकड्यावर विश्वास बसणार नाही
Congress MLAs praises of Haryana CM Saini
Congress : हरियाणा काँग्रेस फुटीच्या उंबरठ्यावर? दोन आमदारांनी केलं मुख्यमंत्र्यांचं कौतुक
Chandrashekhar Bawankule statement on Criteria for opposition leaders to join ruling party
सत्ताधारी पक्षात प्रवेशासाठी विरोधी पक्षातील नेत्यांसाठी ‘हे’ निकष… चंद्रशेखर बावनकुळे म्हणाले…
Sharad Pawar, Ajit Pawar share stage at Baramati event
शरद पवार-अजित पवार पुन्हा एकाच व्यासपीठावर; ‘व्हीएसआय’च्या सर्वसाधारण सभेत उद्या उपस्थिती
Local Government Election Preparations BJP busy in front building but Congress is sluggish
भाजप मोर्चेबांधणीत व्यस्त, काँग्रेस सुस्तच! स्थानिक स्वराज्य संस्था निवडणूक पूर्वतयारी

बनावट ऑडिओ क्लीप कशी तयार केली जाते?

कोणत्याही व्यक्तीच्या बनावट आवाजाची निर्मिती करणे फार सोपे आहे. त्यासाठी फक्त चांगले इंटरनेट कनेक्शन आणि ज्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची आहे, त्याच्या एका खऱ्या ऑडिओ क्लीपची गरज असते. या दोन गोष्टी असल्यास बनावट ऑडिओ तयार करता येतो. अशाच प्रकारचे ऑडिओ तयार करणाऱ्या शिवा नावाच्या एका व्यक्तीशी ‘इंडियन एक्स्प्रेस’ने चर्चा केली. या व्यक्तीने सांगितल्यानुसार covers.ai सारखे संकेतस्थळ वापरून अवघ्या पाच मिनिटांत बनावट ऑडिओ क्लीप तयार करता येते. “या जगात प्रत्येकजण आपला बनावट व्हिडीओ तयार करू शकतो. त्यासाठी थोडेफार पैसे द्यावे लागतात. बनावट ऑडिओ क्लीप तयार करायची असेल तर संबंधित व्यक्तीची कमीत कमी ३ मिनिटांची खरीखुरी ऑडिओ क्लीप गरजेची असते. त्या ऑडिओ क्लीपच्या मदतीने बनावट ऑडिओ क्लीप तयार केली जाते. त्यासाठी भरपूर संकेतस्थळ उपलब्ध असून काही पैसे दिल्यास आपल्याला हवा असलेला आवाज तयार करून मिळतो. अशाच बनावट ऑडिओ क्लीपच्या मदतीने गाणीदेखील तयार करता येतात,” असे या व्यक्तीने सांगितले.

यासह बनावट आवाज तयार करण्यासाठी वेगवेगळे शेकडो ऑनलाईन टूल्स उपलब्ध आहेत. एआयच्या मदतीने आवाजाची निर्मिती करण्याची प्रक्रिया सांगणारे शेकडो व्हिडीओ यूट्यूबवर उपलब्ध आहेत.

डीपफेक ऑडिओ शोधणे कठीण का?

यापूर्वी डीपफेक ऑडिओ ओळखणे तुलनेने सोपे असायचे. कारण अशा प्रकारचे ऑडिओ हे रोबोटिक होते. हा खराखुरा आवाज नाही, असे लगेच ओळखायला यायचे. मात्र आता तंत्रज्ञानात मोठी प्रगती झाली आहे. याबाबत बोलताना एशिया सोफोस या आयटी सेक्युरिटी कंपनीचे पदाधिकारी अरॉन बुगल यांनी माहिती दिली. “सध्या समाजमाध्यांवर अनेक प्रकारचे व्हिडीओ आणि ऑडिओ अपलोड केले जातात. याच कन्टेंचा वापर करून अधिक प्रगत एआयच्या मदतीने डीपफेक व्हिडीओ आणि फोटो तयार केले जात आहेत. हे टाळायचे असेल तर समाजमाध्यमांवरील आपले खाते प्रायव्हेट करून ठेवणे तसेच खाते आपल्या ओळखीच्या लोकांपर्यंतच मर्यादित ठेवणे हा एक पर्याय आहे. मात्र आपल्या ओळखीच्या लोकांपैकी कोणाही अशा प्रकारे डीपफेक व्हिडीओ, ऑडिओ किंवा फोटो तयार करणार नाही, याची शास्वती नाही,” असे अरॉन यांनी सांगितले.

बनावट ऑडिओ, व्हिडीओ रोखण्याचा पर्याय काय?

डीपफेक तंत्रज्ञानाचा चुकीचा गैरवापर टाळायचा असेल तर प्रशासनाने अशा प्रकारच्या ऑडिओ, व्हिडीओंना प्रोत्साहन देणारी समाजमाध्यमावरची खाती बंद करायला हवीत, असे अरॉन यांनी सांगितले. “भारतातील इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान विभागाने समाजमाध्यम मंचांना डीपफेक ऑडिओ आणि व्हिडीओंचा सामना करण्याचा सल्ला द्यायला हवा. डीपफेक ऑडिओ आणि व्हिडीओ हटवण्यात अपयश आल्यास अशा प्रकारच्या सोशल मीडिया मंचांना कारवाईस सामोरे जावे लागेल, असेही सरकारने सांगितले पाहिजे. सरकारने अशा प्रकारची भूमिका घेतल्यास डीफफेक ऑडिओ, व्हिडीओ किंवा फोटोंचे प्रमाण कमी होण्यास मदत होईल,” असे बुगल यांनी सांगितले.

कन्टेंट डिजिटली साक्षांकित असणे हा पर्याय

“सध्या इंटरनेटवर असणारे व्हिडीओ खरे आहेत हे ग्रहित धरण्यासाठी निश्चित अशी प्रक्रिया असायला हवी. त्यासाठी व्हिडीओ डिजिटली साक्षांकित असायला हवेत. म्हणजेच जे व्हिडीओ डिजिटली साक्षांकित आहेत ते खरेखुरे आहेत, असे ग्राह्य धरता येईल. सध्या तंत्रज्ञानाचा विकास होत असून अगदी कमी काळात डीपफेक कन्टेंट तयार होत आहे. विशेष म्हणजे डीपफेक कन्टेंटच्या गुणवत्तेतही काळानुसार सुधारणा होत आहे. भविष्यात असाही काळ येऊ शकतो, जेव्हा खरा आणि बनावट व्हिडीओ ओळखणे कठीण होऊ शकते. त्यामुळे इंटरनेटवर असणारे कन्टेंट खरे आहे हे समजण्यासाठी ते डिजिटली सांक्षांकित किंवा प्रमाणित करणे गरजेचे आहे,” असेही बुगल म्हणाले.

डीपफेक ऑडिओ, व्हिडीओ कसा ओळखावा?

एआयच्या मदतीने एखाद्या राजकीय व्यक्तीचा तयार करण्यात आलेला डीपफेक व्हिडीओ आणि ऑडिओ ओळखण्यासाठी नेहमी जागरूक असणे गरजेचे आहे. त्यासाठी खालील गोष्टी करता येतील.

राजकारणातील माहिती ठेवणे : राजकारणात रोज अनेक घडामोडी घडत असतात. त्यामुळे आपल्या देशात, राज्यात काय घडत आहे, त्याकडे लक्ष द्यावे. कोणता राजकीय नेता काय म्हणाला? हे तुम्हाला माहीत असायला हवे. त्यामुळे एखादा डीपफेक व्हिडीओ किंवा ऑडिओ समोर आलाच, तर नेमके सत्य काय? हे तुम्हाला समजू शकेल. तुम्ही खोट्या प्रचाराला बळी पडणार नाहीत.

शेअर करण्याआधी सत्यता तपासा : एखादा व्हिडीओ किंवा ऑडिओ तुमच्याकडे आलाच तर तो शेअर करण्याआधी त्याची सत्यता तपासा. व्हिडीओ किंवा ऑडिओची सत्यता तपासण्यासाठी इंटरनेटवर अनेक एआय व्हिडीओ डिटेक्टर्स उपलब्ध आहेत. ऑडिओची सत्यता तपासण्यासाठीदेखील अशा प्रकारचे एआय टूल उपलब्ध आहेत. aivoicedetector.com, play.ht अशी त्याची काही उदाहरणे आहेत. त्यांची मदत घेऊन व्हिडीओ आणि ऑडिओची सत्यता तपासली जाऊ शकते.

निवडणुकीच्या काळात आपण का काळजी घ्यावी?

डीपफेक ऑडिओ आणि व्हिडीओ तयार करण्यासाठी फक्त दोन किंवा तीन मिनिटांची क्लीप पुरेशी आहे. इंटरनेटवर राजकीय नेत्यांच्या अनेक ऑडिओ आणि व्हिडीओ क्लीप उपलब्ध आहेत. त्यामुळे अशा प्रकारचे डीपफेक ऑडिओ किंवा व्हिडीओ तयार करणे फार अवघड बाब नाही. अशा व्हिडीओ किंवा ऑडिओंमुळे जनमतावर प्रभाव पडू शकतो. तसेच निवडणुकीतील उमेदवाराच्या प्रतिमेलाही धक्का पोहोचू शकतो. लोकशाही पद्धतीने घेतल्या जाणाऱ्या निवडणुकीवर त्याचा परिणाम पडू शकतो. त्यामुळे निवडणुकीच्या काळात डीपफेक व्हिडीओ आणि ऑडिओंपासून सावध राहिले पाहिजे. अशा प्रकारचे व्हिडीओ समोर आलेच तर पोलीस भारतीय दंड संहिता आणि आयटी कायद्याच्या कलमाअंतर्गत कारवाई करतात.

Story img Loader