Aamir Khan Deepfake Video गेल्या महिन्यात बॉलिवूडमधील अभिनेत्री रश्मिका मंदाना, आलिया भट्टसह अनेक प्रसिद्ध लोकांचे डीपफेक व्हिडिओ व्हायरल झाले होते. डीपफेक व्हिडिओबद्दल ज्या व्यक्तिला माहिती नाही, त्याला हे व्हिडिओ खरेही वाटतात. याचाच फायदा लोकसभा निवडणुकीत घेतला जात आहे. निवडणुकीत बॉलीवूड अभिनेते पक्षात प्रचार करत असलेले डीपफेक व्हिडिओ व्हायरल होत आहेत. लोकसभा निवडणुकीच्या पहिल्या टप्प्यातील मतदान शुक्रवारी (१९ एप्रिल) पार पडले. गेल्या काही आठवड्यांपासून, सोशल मीडियावर अनेक चुकीच्या गोष्टी व्हायरल होत आहेत. अलीकडेच अभिनेता आमिर खान याचे दोन व्हिडिओ व्हायरल झाले, ज्यात तो काँग्रेसचा प्रचार करताना दिसत आहे.

अभिनेता आमिर खानचे व्हायरल झालेले दोन्ही व्हिडिओ त्याच्या लोकप्रिय टीव्ही मालिका सत्यमेव जयतेचा प्रोमो व्हिडिओ घेऊन तयार करण्यात आले आहे. या व्हीडिओत अभिनेता आमिर खान स्पष्टपणे काँग्रेस पक्षाला पाठिंबा देताना दिसत आहे, तर दुसऱ्या व्हीडिओमध्ये न्याय मिळण्याविषयी बोलताना दिसत आहे. ‘न्याय’ हा काँग्रेसचा निवडणुकीतील प्रमुख मुद्दा आहे आणि काँग्रेसच्या जाहीरनाम्याचे शीर्षकही ‘न्याय पत्र’ आहे.

Salman Khan And Disha Patani Dance on Mujhse Shaadi Karogi song video viral
Video: मुझसे शादी करोगी…; सलमान खानचा दिशा पटानीबरोबर जबरदस्त डान्स, व्हिडीओ होतोय व्हायरल
sunlight vitamin d
सूर्यप्रकाश भरपूर प्रमाणात असूनही भारतीयांमध्ये ‘Vitamin D’ची कमतरता…
kareena kapoor lal singh chadhha aamir khan
‘लाल सिंग चड्ढा’च्या अपयशाने निराश झाला होता आमिर खान, करीना कपूर खानने केला खुलासा; म्हणाली…
Lalu Prasad Yadav Controversial comment
Lalu Prasad Yadav Video : “नयन सेंकने….”; नितीश कुमार यांच्या महिला संवाद यात्रेबद्दल लालू प्रसाद यादव यांचं आक्षेपार्ह वक्तव्य
salman khan mother danching with helan
Video : सलमान खानच्या आईने हेलन यांच्याबरोबर धरला ठेका; उपस्थितही पाहतच राहिले, व्हिडीओ होतोय व्हायरल
Rahul Gandhi Narendra Modi Gautam Adani (2)
VIDEO : संसदेच्या आवारात राहुल गांधींनी घेतली ‘मोदी-अदाणीं’ची मुलाखत? विरोधी खासदारांनीच घातले मुखवटे
Alia Bhatt Viral Video
तोंडाला मास्क, साधा लूक…; आलिशान गाडी सोडून आलिया भट्टचा रिक्षाने प्रवास; व्हिडीओ व्हायरल
Shashank Ketkar
‘मुरांबा’ मालिकेचे ९०० भाग पूर्ण; व्हिडीओ शेअर करत शशांक केतकर म्हणाला, “खूप भावुक…”

हेही वाचा : जीवनावश्यक वस्तू खरेदी करणेही कठीण; कर्ज फेडू न शकणाऱ्यांना चीन कशी शिक्षा करत आहे?

आमिर खानसह अभिनेता रणवीर सिंहदेखील डीपफेक तंत्रज्ञानाचा बळी ठरला आहे. बेरोजगारी आणि महागाईच्या मुद्द्यांवर पंतप्रधान नरेंद्र मोदी यांच्यावर टीका करतानाचा त्याचा एक व्हिडिओ मोठ्या प्रमाणात व्हायरल झाला. मात्र, मूळ व्हडिओत तो पंतप्रधानांची स्तुती करत आहे. त्यामुळे जे लोक याबद्दल जागरूक नाहीत, अशा अनेकांच्या मनात संभ्रम निर्माण होतो. अनेकांना डीपफेक व्हीडिओज किंवा चुकीची व्हायरल होत असलेली माहिती खरी वाटते. त्यामुळे या निवडणूक काळात चुकीची माहिती कशी ओळखायची? डीपफेक व्हिडिओ कसे तयार केले जातात? डीपफेक व्हिडिओ कसे ओळखायचे? याबद्दल जाणून घेऊ या.

व्हॉइस स्वॅप तंत्रज्ञान

एआय प्रणालीचा वापर करून तयार करण्यात आलेले व्हिडिओ किंवा इतर गोष्टी ओळखण्यासाठी आयआयटी जोधपूरने itisaar.ai नावाचे एक तंत्रज्ञान तयार केले आहे. या तंत्रज्ञानानुसार व्हायरल होत असलेले व्हिडिओ ‘व्हॉइस स्वॅप’ तंत्रज्ञान वापरून तयार केले गेले आहेत. आपल्या नावाप्रमाणेच हे तंत्रज्ञान खर्‍या ऑडिओ क्लिपची मदत घेऊन एखाद्या व्यक्तीच्या आवाजातील बनावट ऑडिओ क्लिप तयार करू शकते. त्यात एआय अल्गोरिदमचा वापर होतो. व्हिडिओ अधिकाधिक खरे वाटावे, यासाठी हे तंत्रज्ञान वापरुन आवाजातील वैशिष्ट्ये, जसे की, उच्चारण, टोन, गती आदि सर्वच गोष्टींवर काम करता येते.

सध्या, वापरण्यास अगदी सोयिस्कर अशी ‘व्हॉइस स्वॅप’ साधने विनामूल्य उपलब्ध आहेत. एखाद्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची असल्यास, केवळ खर्‍या ऑडिओ क्लिपची गरज असते. अपलोड केलेला ऑडिओ आवाज खरा वाटावा यासाठी या तंत्रज्ञानात काही सेटिंग्स बदलाव्या लागतात. विशेष म्हणजे अवघ्या काही मिनिटात हे खरे वाटणारे डिपफेक ऑडिओ किंवा व्हिडिओ तयार होतात.

डीपफेक कसे ओळखायचे?

डीपफेक व्हिडिओ किंवा ऑडिओ ओळखणे कठीण असले, तरी सोशल मीडिया स्क्रोल करताना खाली दिलेल्या काही गोष्टींचे पालन केल्यास, हे व्हिडिओ किंवा ऑडिओ ओळखायला मदत होऊ शकते.

-सतर्क रहा: सोशल मीडियावरील आपले खाते प्रायव्हेट करून ठेवणे आणि त्याची मर्यादा ओळखीच्या लोकांपर्यंत ठेवणे आवश्यक आहे.

-स्रोत तपासा: अपरिचित स्त्रोतांकडून एखादा ऑडिओ किंवा व्हिडिओ आल्यास, त्यावर लगेच विश्वास टाकू नका. अशा संशयास्पद विशेषत: विवादास्पद सामग्रीपासून दूर रहा. कोणत्याही संशयास्पद सामग्रीची विश्वासार्हता तपासण्यासाठी विश्वसनीय माध्यम संस्थांकडून संदर्भ घेऊन ती तपासा.

-ऑडिओ लक्षपूर्वक ऐका: डीपफेक ऑडिओमध्ये काही चुकीच्या गोष्टी आढळतात, जसे की टोन, रोबोटिक भाषाशैली आणि बोलताना चुकीच्या ठिकाणी थांबणे. ऑडिओ लक्षपूर्वक ऐकल्यास त्याची सत्यता आपल्याला कळते.

-व्हिडिओ सामग्रीची पडताळणी: डीपफेक ऑडिओमध्ये अनेकदा फेरफार केलेली व्हिडिओ सामग्री असते. एखादा खरा व्हिडिओ घेऊन त्यात डीपफेक ऑडिओ टाकला जातो. अशावेळी, एखाद्या व्हडिओवर संशय असल्यास त्यातल्या हालचालींचे निरीक्षण करा. बोलताना व्हीडिओतील व्यक्तीचे ओठ, तो काय बोलतोय याच्याशी जुळत आहेत का, याकडे लक्ष द्या. त्यावरूनही डीपफेक व्हिडिओ ओळखता येतात.

-अपडेट राहणे : डीपफेकशी संबंधित घडामोडी आणि त्याचा धोका ओळखण्यासाठी दैनंदिन बातम्या माहिती असणे आणि अपडेट राहणे महत्त्वाचे आहे. आपल्या आजूबाजूला काय घडत आहे, याची जाणीव असलेले लोक अशा जाळ्यात अडकत नाहीत.

हेही वाचा : Nestle Controversy : नेस्लेच्या बेबी फूडमध्ये साखरेचे प्रमाण जास्त; साखर आरोग्यासाठी घातक का?

-एआय व्हॉइस डिटेक्टर वापरा: ऑप्टिकचे ‘एआय ऑर नॉट’ सारखे काही एआय डिटेक्टर विनामूल्य वापरण्यासाठी उपलब्ध आहेत. तुम्ही अशा डिटेक्टरवर कोणताही संशयास्पद ऑडिओ किंवा व्हिडिओ अपलोड करू शकता, जो तुम्हाला या सामग्रीची सत्यता सांगेल.

Story img Loader