Aamir Khan Deepfake Video गेल्या महिन्यात बॉलिवूडमधील अभिनेत्री रश्मिका मंदाना, आलिया भट्टसह अनेक प्रसिद्ध लोकांचे डीपफेक व्हिडिओ व्हायरल झाले होते. डीपफेक व्हिडिओबद्दल ज्या व्यक्तिला माहिती नाही, त्याला हे व्हिडिओ खरेही वाटतात. याचाच फायदा लोकसभा निवडणुकीत घेतला जात आहे. निवडणुकीत बॉलीवूड अभिनेते पक्षात प्रचार करत असलेले डीपफेक व्हिडिओ व्हायरल होत आहेत. लोकसभा निवडणुकीच्या पहिल्या टप्प्यातील मतदान शुक्रवारी (१९ एप्रिल) पार पडले. गेल्या काही आठवड्यांपासून, सोशल मीडियावर अनेक चुकीच्या गोष्टी व्हायरल होत आहेत. अलीकडेच अभिनेता आमिर खान याचे दोन व्हिडिओ व्हायरल झाले, ज्यात तो काँग्रेसचा प्रचार करताना दिसत आहे.

अभिनेता आमिर खानचे व्हायरल झालेले दोन्ही व्हिडिओ त्याच्या लोकप्रिय टीव्ही मालिका सत्यमेव जयतेचा प्रोमो व्हिडिओ घेऊन तयार करण्यात आले आहे. या व्हीडिओत अभिनेता आमिर खान स्पष्टपणे काँग्रेस पक्षाला पाठिंबा देताना दिसत आहे, तर दुसऱ्या व्हीडिओमध्ये न्याय मिळण्याविषयी बोलताना दिसत आहे. ‘न्याय’ हा काँग्रेसचा निवडणुकीतील प्रमुख मुद्दा आहे आणि काँग्रेसच्या जाहीरनाम्याचे शीर्षकही ‘न्याय पत्र’ आहे.

Nitin Gadkari chopper checked
Nitin Gadkari: उद्धव ठाकरेंनंतर आता नितीन गडकरींचीही तपासणी; हेलिकॉप्टर तपासणीचा व्हिडीओ आला समोर
21 November 2024 Rashi Bhavishya
२१ नोव्हेंबर पंचांग: वर्षातील शेवटचा गुरुपुष्यामृत योग कोणत्या…
amol kolhe bag checked after uddhav thackeray
उद्धव ठाकरेंनंतर महाविकास आघाडीच्या आणखी एका नेत्याच्या बॅगची तपासणी, नेमकं काय घडलं?
Donald Trump Imran Khan Fact Check video
“इम्रान खान माझे मित्र, लवकरच त्यांना तुरुंगातून बाहेर काढेन”; डोनाल्ड ट्रम्प यांचे आश्वासन? VIDEO खरा की खोटा
anand ahuja viral video
सोनम कपूरच्या पतीचा ‘तो’ व्हिडीओ सोशल मीडियावर व्हायरल; नेटकरी कौतुक करत म्हणाले, “पैसा असूनही…”
mallikarjun kharge yogi adityanath
Video: डोक्यावरून हात फिरवत खर्गेंची योगी आदित्यनाथांवर खोचक टीका; म्हणाले, “ते डोक्यावर केस…”!
ajay devgan and aamir khan
‘इश्क’च्या शूटिंगवेळी चिपांझीने केलेला हल्ला; ‘वाचवा, वाचवा’ म्हणत आमिर खान ओरडला अन् अजय देवगणने धावत्या कारमधून…
maharashtra election 2024 yogi adityanath fact check viral video
भाजपा उमेदवाराच्या प्रचारासाठी योगी आदित्यनाथ बुलडोझर घेऊन उतरले मैदानात! लोकांना हात जोडून केलं मतदानाचं आवाहन? Video खरा पण…

हेही वाचा : जीवनावश्यक वस्तू खरेदी करणेही कठीण; कर्ज फेडू न शकणाऱ्यांना चीन कशी शिक्षा करत आहे?

आमिर खानसह अभिनेता रणवीर सिंहदेखील डीपफेक तंत्रज्ञानाचा बळी ठरला आहे. बेरोजगारी आणि महागाईच्या मुद्द्यांवर पंतप्रधान नरेंद्र मोदी यांच्यावर टीका करतानाचा त्याचा एक व्हिडिओ मोठ्या प्रमाणात व्हायरल झाला. मात्र, मूळ व्हडिओत तो पंतप्रधानांची स्तुती करत आहे. त्यामुळे जे लोक याबद्दल जागरूक नाहीत, अशा अनेकांच्या मनात संभ्रम निर्माण होतो. अनेकांना डीपफेक व्हीडिओज किंवा चुकीची व्हायरल होत असलेली माहिती खरी वाटते. त्यामुळे या निवडणूक काळात चुकीची माहिती कशी ओळखायची? डीपफेक व्हिडिओ कसे तयार केले जातात? डीपफेक व्हिडिओ कसे ओळखायचे? याबद्दल जाणून घेऊ या.

व्हॉइस स्वॅप तंत्रज्ञान

एआय प्रणालीचा वापर करून तयार करण्यात आलेले व्हिडिओ किंवा इतर गोष्टी ओळखण्यासाठी आयआयटी जोधपूरने itisaar.ai नावाचे एक तंत्रज्ञान तयार केले आहे. या तंत्रज्ञानानुसार व्हायरल होत असलेले व्हिडिओ ‘व्हॉइस स्वॅप’ तंत्रज्ञान वापरून तयार केले गेले आहेत. आपल्या नावाप्रमाणेच हे तंत्रज्ञान खर्‍या ऑडिओ क्लिपची मदत घेऊन एखाद्या व्यक्तीच्या आवाजातील बनावट ऑडिओ क्लिप तयार करू शकते. त्यात एआय अल्गोरिदमचा वापर होतो. व्हिडिओ अधिकाधिक खरे वाटावे, यासाठी हे तंत्रज्ञान वापरुन आवाजातील वैशिष्ट्ये, जसे की, उच्चारण, टोन, गती आदि सर्वच गोष्टींवर काम करता येते.

सध्या, वापरण्यास अगदी सोयिस्कर अशी ‘व्हॉइस स्वॅप’ साधने विनामूल्य उपलब्ध आहेत. एखाद्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची असल्यास, केवळ खर्‍या ऑडिओ क्लिपची गरज असते. अपलोड केलेला ऑडिओ आवाज खरा वाटावा यासाठी या तंत्रज्ञानात काही सेटिंग्स बदलाव्या लागतात. विशेष म्हणजे अवघ्या काही मिनिटात हे खरे वाटणारे डिपफेक ऑडिओ किंवा व्हिडिओ तयार होतात.

डीपफेक कसे ओळखायचे?

डीपफेक व्हिडिओ किंवा ऑडिओ ओळखणे कठीण असले, तरी सोशल मीडिया स्क्रोल करताना खाली दिलेल्या काही गोष्टींचे पालन केल्यास, हे व्हिडिओ किंवा ऑडिओ ओळखायला मदत होऊ शकते.

-सतर्क रहा: सोशल मीडियावरील आपले खाते प्रायव्हेट करून ठेवणे आणि त्याची मर्यादा ओळखीच्या लोकांपर्यंत ठेवणे आवश्यक आहे.

-स्रोत तपासा: अपरिचित स्त्रोतांकडून एखादा ऑडिओ किंवा व्हिडिओ आल्यास, त्यावर लगेच विश्वास टाकू नका. अशा संशयास्पद विशेषत: विवादास्पद सामग्रीपासून दूर रहा. कोणत्याही संशयास्पद सामग्रीची विश्वासार्हता तपासण्यासाठी विश्वसनीय माध्यम संस्थांकडून संदर्भ घेऊन ती तपासा.

-ऑडिओ लक्षपूर्वक ऐका: डीपफेक ऑडिओमध्ये काही चुकीच्या गोष्टी आढळतात, जसे की टोन, रोबोटिक भाषाशैली आणि बोलताना चुकीच्या ठिकाणी थांबणे. ऑडिओ लक्षपूर्वक ऐकल्यास त्याची सत्यता आपल्याला कळते.

-व्हिडिओ सामग्रीची पडताळणी: डीपफेक ऑडिओमध्ये अनेकदा फेरफार केलेली व्हिडिओ सामग्री असते. एखादा खरा व्हिडिओ घेऊन त्यात डीपफेक ऑडिओ टाकला जातो. अशावेळी, एखाद्या व्हडिओवर संशय असल्यास त्यातल्या हालचालींचे निरीक्षण करा. बोलताना व्हीडिओतील व्यक्तीचे ओठ, तो काय बोलतोय याच्याशी जुळत आहेत का, याकडे लक्ष द्या. त्यावरूनही डीपफेक व्हिडिओ ओळखता येतात.

-अपडेट राहणे : डीपफेकशी संबंधित घडामोडी आणि त्याचा धोका ओळखण्यासाठी दैनंदिन बातम्या माहिती असणे आणि अपडेट राहणे महत्त्वाचे आहे. आपल्या आजूबाजूला काय घडत आहे, याची जाणीव असलेले लोक अशा जाळ्यात अडकत नाहीत.

हेही वाचा : Nestle Controversy : नेस्लेच्या बेबी फूडमध्ये साखरेचे प्रमाण जास्त; साखर आरोग्यासाठी घातक का?

-एआय व्हॉइस डिटेक्टर वापरा: ऑप्टिकचे ‘एआय ऑर नॉट’ सारखे काही एआय डिटेक्टर विनामूल्य वापरण्यासाठी उपलब्ध आहेत. तुम्ही अशा डिटेक्टरवर कोणताही संशयास्पद ऑडिओ किंवा व्हिडिओ अपलोड करू शकता, जो तुम्हाला या सामग्रीची सत्यता सांगेल.