काळानुसार कृत्रिम बुद्धीमत्ता (एआय) तंत्रज्ञानात बरेच बदल होत आहेत. आज आपण रोज अनेक ऑडिओ आणि व्हिडीओ असे पाहतो, ज्यात किती तथ्यता आहे, हे आपल्यालाच माहिती नसते. आजच्या काळात एखाद्या व्यक्तीची बनावट (डीपफेक) व्हिडीओ किंवा ऑडिओ क्लीप तयार करणे फार सोपे झाले आहे. सध्या निवडणुकीचा काळ आहे. डीपफेकचे हे तंत्रज्ञान याआधी राजकीय क्षेत्रातही वापरले गेले आहे. या तंत्रज्ञानातील प्रगती पाहून या निवडणुकीच्या काळात एखाद्या नेत्याच्या नावे बनावट ऑडिओ किंवा व्हिडीओ समाजमाध्यमांत पसरवला जाण्याची शक्यता आहे. डीपफेकचे तंत्रज्ञान वापरून नेत्याच्या नावाने चुकीची माहिती पसरवली जाऊ शकते. याच पार्श्वभूमीवर एखाद्या नेत्याच्या नावाचा बनावट व्हिडीओ किंवा ऑडिओ कसा ओळखावा? आपण जागरूक कसे राहवे? हे जाणून घेऊ या…
डीपफेकसाठी कृत्रिम बुद्धीमत्तेचा केला जातो वापर
सध्या देशभरात निवडणुकीचे वातावरण आहे. अशा काळात राजकीय नेत्यांच्या नावे चुकीची माहिती पसरण्याची शक्यता आहे. त्यासाठी डीपफेक तंत्रज्ञान वापरले जाऊ शकते. त्यामुळे अशा प्रकारच्या बनावट व्हिडीओ आणि ऑडिओ क्लीप ओळखणे गरजेचे आहे. मुळात डीपफेक व्हिडीओ किंवा ऑडिओ हे कृत्रिम बुद्धीमत्तेचा वापर करून तयार केले जातात. त्यासाठी डीप लर्निंग अल्गोरिदमचा वापर केला जातो. गेल्या काही वर्षांत हे तंत्रज्ञान आणखी प्रगत झालेले आहे. त्यामुळे डीप लर्निंग अल्गोरिदमचा वापर करून एखाद्या व्यक्तीचा हुबेहुब आवाज आणि चेहरा निर्माण करता येऊ शकतो.
बनावट ऑडिओ क्लीप कशी तयार केली जाते?
कोणत्याही व्यक्तीच्या बनावट आवाजाची निर्मिती करणे फार सोपे आहे. त्यासाठी फक्त चांगले इंटरनेट कनेक्शन आणि ज्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची आहे, त्याच्या एका खऱ्या ऑडिओ क्लीपची गरज असते. या दोन गोष्टी असल्यास बनावट ऑडिओ तयार करता येतो. अशाच प्रकारचे ऑडिओ तयार करणाऱ्या शिवा नावाच्या एका व्यक्तीशी ‘इंडियन एक्स्प्रेस’ने चर्चा केली. या व्यक्तीने सांगितल्यानुसार covers.ai सारखे संकेतस्थळ वापरून अवघ्या पाच मिनिटांत बनावट ऑडिओ क्लीप तयार करता येते. “या जगात प्रत्येकजण आपला बनावट व्हिडीओ तयार करू शकतो. त्यासाठी थोडेफार पैसे द्यावे लागतात. बनावट ऑडिओ क्लीप तयार करायची असेल तर संबंधित व्यक्तीची कमीत कमी ३ मिनिटांची खरीखुरी ऑडिओ क्लीप गरजेची असते. त्या ऑडिओ क्लीपच्या मदतीने बनावट ऑडिओ क्लीप तयार केली जाते. त्यासाठी भरपूर संकेतस्थळ उपलब्ध असून काही पैसे दिल्यास आपल्याला हवा असलेला आवाज तयार करून मिळतो. अशाच बनावट ऑडिओ क्लीपच्या मदतीने गाणीदेखील तयार करता येतात,” असे या व्यक्तीने सांगितले.
यासह बनावट आवाज तयार करण्यासाठी वेगवेगळे शेकडो ऑनलाईन टूल्स उपलब्ध आहेत. एआयच्या मदतीने आवाजाची निर्मिती करण्याची प्रक्रिया सांगणारे शेकडो व्हिडीओ यूट्यूबवर उपलब्ध आहेत.
डीपफेक ऑडिओ शोधणे कठीण का?
यापूर्वी डीपफेक ऑडिओ ओळखणे तुलनेने सोपे असायचे. कारण अशा प्रकारचे ऑडिओ हे रोबोटिक होते. हा खराखुरा आवाज नाही, असे लगेच ओळखायला यायचे. मात्र आता तंत्रज्ञानात मोठी प्रगती झाली आहे. याबाबत बोलताना एशिया सोफोस या आयटी सेक्युरिटी कंपनीचे पदाधिकारी अरॉन बुगल यांनी माहिती दिली. “सध्या समाजमाध्यांवर अनेक प्रकारचे व्हिडीओ आणि ऑडिओ अपलोड केले जातात. याच कन्टेंचा वापर करून अधिक प्रगत एआयच्या मदतीने डीपफेक व्हिडीओ आणि फोटो तयार केले जात आहेत. हे टाळायचे असेल तर समाजमाध्यमांवरील आपले खाते प्रायव्हेट करून ठेवणे तसेच खाते आपल्या ओळखीच्या लोकांपर्यंतच मर्यादित ठेवणे हा एक पर्याय आहे. मात्र आपल्या ओळखीच्या लोकांपैकी कोणाही अशा प्रकारे डीपफेक व्हिडीओ, ऑडिओ किंवा फोटो तयार करणार नाही, याची शास्वती नाही,” असे अरॉन यांनी सांगितले.
बनावट ऑडिओ, व्हिडीओ रोखण्याचा पर्याय काय?
डीपफेक तंत्रज्ञानाचा चुकीचा गैरवापर टाळायचा असेल तर प्रशासनाने अशा प्रकारच्या ऑडिओ, व्हिडीओंना प्रोत्साहन देणारी समाजमाध्यमावरची खाती बंद करायला हवीत, असे अरॉन यांनी सांगितले. “भारतातील इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान विभागाने समाजमाध्यम मंचांना डीपफेक ऑडिओ आणि व्हिडीओंचा सामना करण्याचा सल्ला द्यायला हवा. डीपफेक ऑडिओ आणि व्हिडीओ हटवण्यात अपयश आल्यास अशा प्रकारच्या सोशल मीडिया मंचांना कारवाईस सामोरे जावे लागेल, असेही सरकारने सांगितले पाहिजे. सरकारने अशा प्रकारची भूमिका घेतल्यास डीफफेक ऑडिओ, व्हिडीओ किंवा फोटोंचे प्रमाण कमी होण्यास मदत होईल,” असे बुगल यांनी सांगितले.
कन्टेंट डिजिटली साक्षांकित असणे हा पर्याय
“सध्या इंटरनेटवर असणारे व्हिडीओ खरे आहेत हे ग्रहित धरण्यासाठी निश्चित अशी प्रक्रिया असायला हवी. त्यासाठी व्हिडीओ डिजिटली साक्षांकित असायला हवेत. म्हणजेच जे व्हिडीओ डिजिटली साक्षांकित आहेत ते खरेखुरे आहेत, असे ग्राह्य धरता येईल. सध्या तंत्रज्ञानाचा विकास होत असून अगदी कमी काळात डीपफेक कन्टेंट तयार होत आहे. विशेष म्हणजे डीपफेक कन्टेंटच्या गुणवत्तेतही काळानुसार सुधारणा होत आहे. भविष्यात असाही काळ येऊ शकतो, जेव्हा खरा आणि बनावट व्हिडीओ ओळखणे कठीण होऊ शकते. त्यामुळे इंटरनेटवर असणारे कन्टेंट खरे आहे हे समजण्यासाठी ते डिजिटली सांक्षांकित किंवा प्रमाणित करणे गरजेचे आहे,” असेही बुगल म्हणाले.
डीपफेक ऑडिओ, व्हिडीओ कसा ओळखावा?
एआयच्या मदतीने एखाद्या राजकीय व्यक्तीचा तयार करण्यात आलेला डीपफेक व्हिडीओ आणि ऑडिओ ओळखण्यासाठी नेहमी जागरूक असणे गरजेचे आहे. त्यासाठी खालील गोष्टी करता येतील.
राजकारणातील माहिती ठेवणे : राजकारणात रोज अनेक घडामोडी घडत असतात. त्यामुळे आपल्या देशात, राज्यात काय घडत आहे, त्याकडे लक्ष द्यावे. कोणता राजकीय नेता काय म्हणाला? हे तुम्हाला माहीत असायला हवे. त्यामुळे एखादा डीपफेक व्हिडीओ किंवा ऑडिओ समोर आलाच, तर नेमके सत्य काय? हे तुम्हाला समजू शकेल. तुम्ही खोट्या प्रचाराला बळी पडणार नाहीत.
शेअर करण्याआधी सत्यता तपासा : एखादा व्हिडीओ किंवा ऑडिओ तुमच्याकडे आलाच तर तो शेअर करण्याआधी त्याची सत्यता तपासा. व्हिडीओ किंवा ऑडिओची सत्यता तपासण्यासाठी इंटरनेटवर अनेक एआय व्हिडीओ डिटेक्टर्स उपलब्ध आहेत. ऑडिओची सत्यता तपासण्यासाठीदेखील अशा प्रकारचे एआय टूल उपलब्ध आहेत. aivoicedetector.com, play.ht अशी त्याची काही उदाहरणे आहेत. त्यांची मदत घेऊन व्हिडीओ आणि ऑडिओची सत्यता तपासली जाऊ शकते.
निवडणुकीच्या काळात आपण का काळजी घ्यावी?
डीपफेक ऑडिओ आणि व्हिडीओ तयार करण्यासाठी फक्त दोन किंवा तीन मिनिटांची क्लीप पुरेशी आहे. इंटरनेटवर राजकीय नेत्यांच्या अनेक ऑडिओ आणि व्हिडीओ क्लीप उपलब्ध आहेत. त्यामुळे अशा प्रकारचे डीपफेक ऑडिओ किंवा व्हिडीओ तयार करणे फार अवघड बाब नाही. अशा व्हिडीओ किंवा ऑडिओंमुळे जनमतावर प्रभाव पडू शकतो. तसेच निवडणुकीतील उमेदवाराच्या प्रतिमेलाही धक्का पोहोचू शकतो. लोकशाही पद्धतीने घेतल्या जाणाऱ्या निवडणुकीवर त्याचा परिणाम पडू शकतो. त्यामुळे निवडणुकीच्या काळात डीपफेक व्हिडीओ आणि ऑडिओंपासून सावध राहिले पाहिजे. अशा प्रकारचे व्हिडीओ समोर आलेच तर पोलीस भारतीय दंड संहिता आणि आयटी कायद्याच्या कलमाअंतर्गत कारवाई करतात.
डीपफेकसाठी कृत्रिम बुद्धीमत्तेचा केला जातो वापर
सध्या देशभरात निवडणुकीचे वातावरण आहे. अशा काळात राजकीय नेत्यांच्या नावे चुकीची माहिती पसरण्याची शक्यता आहे. त्यासाठी डीपफेक तंत्रज्ञान वापरले जाऊ शकते. त्यामुळे अशा प्रकारच्या बनावट व्हिडीओ आणि ऑडिओ क्लीप ओळखणे गरजेचे आहे. मुळात डीपफेक व्हिडीओ किंवा ऑडिओ हे कृत्रिम बुद्धीमत्तेचा वापर करून तयार केले जातात. त्यासाठी डीप लर्निंग अल्गोरिदमचा वापर केला जातो. गेल्या काही वर्षांत हे तंत्रज्ञान आणखी प्रगत झालेले आहे. त्यामुळे डीप लर्निंग अल्गोरिदमचा वापर करून एखाद्या व्यक्तीचा हुबेहुब आवाज आणि चेहरा निर्माण करता येऊ शकतो.
बनावट ऑडिओ क्लीप कशी तयार केली जाते?
कोणत्याही व्यक्तीच्या बनावट आवाजाची निर्मिती करणे फार सोपे आहे. त्यासाठी फक्त चांगले इंटरनेट कनेक्शन आणि ज्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची आहे, त्याच्या एका खऱ्या ऑडिओ क्लीपची गरज असते. या दोन गोष्टी असल्यास बनावट ऑडिओ तयार करता येतो. अशाच प्रकारचे ऑडिओ तयार करणाऱ्या शिवा नावाच्या एका व्यक्तीशी ‘इंडियन एक्स्प्रेस’ने चर्चा केली. या व्यक्तीने सांगितल्यानुसार covers.ai सारखे संकेतस्थळ वापरून अवघ्या पाच मिनिटांत बनावट ऑडिओ क्लीप तयार करता येते. “या जगात प्रत्येकजण आपला बनावट व्हिडीओ तयार करू शकतो. त्यासाठी थोडेफार पैसे द्यावे लागतात. बनावट ऑडिओ क्लीप तयार करायची असेल तर संबंधित व्यक्तीची कमीत कमी ३ मिनिटांची खरीखुरी ऑडिओ क्लीप गरजेची असते. त्या ऑडिओ क्लीपच्या मदतीने बनावट ऑडिओ क्लीप तयार केली जाते. त्यासाठी भरपूर संकेतस्थळ उपलब्ध असून काही पैसे दिल्यास आपल्याला हवा असलेला आवाज तयार करून मिळतो. अशाच बनावट ऑडिओ क्लीपच्या मदतीने गाणीदेखील तयार करता येतात,” असे या व्यक्तीने सांगितले.
यासह बनावट आवाज तयार करण्यासाठी वेगवेगळे शेकडो ऑनलाईन टूल्स उपलब्ध आहेत. एआयच्या मदतीने आवाजाची निर्मिती करण्याची प्रक्रिया सांगणारे शेकडो व्हिडीओ यूट्यूबवर उपलब्ध आहेत.
डीपफेक ऑडिओ शोधणे कठीण का?
यापूर्वी डीपफेक ऑडिओ ओळखणे तुलनेने सोपे असायचे. कारण अशा प्रकारचे ऑडिओ हे रोबोटिक होते. हा खराखुरा आवाज नाही, असे लगेच ओळखायला यायचे. मात्र आता तंत्रज्ञानात मोठी प्रगती झाली आहे. याबाबत बोलताना एशिया सोफोस या आयटी सेक्युरिटी कंपनीचे पदाधिकारी अरॉन बुगल यांनी माहिती दिली. “सध्या समाजमाध्यांवर अनेक प्रकारचे व्हिडीओ आणि ऑडिओ अपलोड केले जातात. याच कन्टेंचा वापर करून अधिक प्रगत एआयच्या मदतीने डीपफेक व्हिडीओ आणि फोटो तयार केले जात आहेत. हे टाळायचे असेल तर समाजमाध्यमांवरील आपले खाते प्रायव्हेट करून ठेवणे तसेच खाते आपल्या ओळखीच्या लोकांपर्यंतच मर्यादित ठेवणे हा एक पर्याय आहे. मात्र आपल्या ओळखीच्या लोकांपैकी कोणाही अशा प्रकारे डीपफेक व्हिडीओ, ऑडिओ किंवा फोटो तयार करणार नाही, याची शास्वती नाही,” असे अरॉन यांनी सांगितले.
बनावट ऑडिओ, व्हिडीओ रोखण्याचा पर्याय काय?
डीपफेक तंत्रज्ञानाचा चुकीचा गैरवापर टाळायचा असेल तर प्रशासनाने अशा प्रकारच्या ऑडिओ, व्हिडीओंना प्रोत्साहन देणारी समाजमाध्यमावरची खाती बंद करायला हवीत, असे अरॉन यांनी सांगितले. “भारतातील इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान विभागाने समाजमाध्यम मंचांना डीपफेक ऑडिओ आणि व्हिडीओंचा सामना करण्याचा सल्ला द्यायला हवा. डीपफेक ऑडिओ आणि व्हिडीओ हटवण्यात अपयश आल्यास अशा प्रकारच्या सोशल मीडिया मंचांना कारवाईस सामोरे जावे लागेल, असेही सरकारने सांगितले पाहिजे. सरकारने अशा प्रकारची भूमिका घेतल्यास डीफफेक ऑडिओ, व्हिडीओ किंवा फोटोंचे प्रमाण कमी होण्यास मदत होईल,” असे बुगल यांनी सांगितले.
कन्टेंट डिजिटली साक्षांकित असणे हा पर्याय
“सध्या इंटरनेटवर असणारे व्हिडीओ खरे आहेत हे ग्रहित धरण्यासाठी निश्चित अशी प्रक्रिया असायला हवी. त्यासाठी व्हिडीओ डिजिटली साक्षांकित असायला हवेत. म्हणजेच जे व्हिडीओ डिजिटली साक्षांकित आहेत ते खरेखुरे आहेत, असे ग्राह्य धरता येईल. सध्या तंत्रज्ञानाचा विकास होत असून अगदी कमी काळात डीपफेक कन्टेंट तयार होत आहे. विशेष म्हणजे डीपफेक कन्टेंटच्या गुणवत्तेतही काळानुसार सुधारणा होत आहे. भविष्यात असाही काळ येऊ शकतो, जेव्हा खरा आणि बनावट व्हिडीओ ओळखणे कठीण होऊ शकते. त्यामुळे इंटरनेटवर असणारे कन्टेंट खरे आहे हे समजण्यासाठी ते डिजिटली सांक्षांकित किंवा प्रमाणित करणे गरजेचे आहे,” असेही बुगल म्हणाले.
डीपफेक ऑडिओ, व्हिडीओ कसा ओळखावा?
एआयच्या मदतीने एखाद्या राजकीय व्यक्तीचा तयार करण्यात आलेला डीपफेक व्हिडीओ आणि ऑडिओ ओळखण्यासाठी नेहमी जागरूक असणे गरजेचे आहे. त्यासाठी खालील गोष्टी करता येतील.
राजकारणातील माहिती ठेवणे : राजकारणात रोज अनेक घडामोडी घडत असतात. त्यामुळे आपल्या देशात, राज्यात काय घडत आहे, त्याकडे लक्ष द्यावे. कोणता राजकीय नेता काय म्हणाला? हे तुम्हाला माहीत असायला हवे. त्यामुळे एखादा डीपफेक व्हिडीओ किंवा ऑडिओ समोर आलाच, तर नेमके सत्य काय? हे तुम्हाला समजू शकेल. तुम्ही खोट्या प्रचाराला बळी पडणार नाहीत.
शेअर करण्याआधी सत्यता तपासा : एखादा व्हिडीओ किंवा ऑडिओ तुमच्याकडे आलाच तर तो शेअर करण्याआधी त्याची सत्यता तपासा. व्हिडीओ किंवा ऑडिओची सत्यता तपासण्यासाठी इंटरनेटवर अनेक एआय व्हिडीओ डिटेक्टर्स उपलब्ध आहेत. ऑडिओची सत्यता तपासण्यासाठीदेखील अशा प्रकारचे एआय टूल उपलब्ध आहेत. aivoicedetector.com, play.ht अशी त्याची काही उदाहरणे आहेत. त्यांची मदत घेऊन व्हिडीओ आणि ऑडिओची सत्यता तपासली जाऊ शकते.
निवडणुकीच्या काळात आपण का काळजी घ्यावी?
डीपफेक ऑडिओ आणि व्हिडीओ तयार करण्यासाठी फक्त दोन किंवा तीन मिनिटांची क्लीप पुरेशी आहे. इंटरनेटवर राजकीय नेत्यांच्या अनेक ऑडिओ आणि व्हिडीओ क्लीप उपलब्ध आहेत. त्यामुळे अशा प्रकारचे डीपफेक ऑडिओ किंवा व्हिडीओ तयार करणे फार अवघड बाब नाही. अशा व्हिडीओ किंवा ऑडिओंमुळे जनमतावर प्रभाव पडू शकतो. तसेच निवडणुकीतील उमेदवाराच्या प्रतिमेलाही धक्का पोहोचू शकतो. लोकशाही पद्धतीने घेतल्या जाणाऱ्या निवडणुकीवर त्याचा परिणाम पडू शकतो. त्यामुळे निवडणुकीच्या काळात डीपफेक व्हिडीओ आणि ऑडिओंपासून सावध राहिले पाहिजे. अशा प्रकारचे व्हिडीओ समोर आलेच तर पोलीस भारतीय दंड संहिता आणि आयटी कायद्याच्या कलमाअंतर्गत कारवाई करतात.