Aamir Khan Deepfake Video गेल्या महिन्यात बॉलिवूडमधील अभिनेत्री रश्मिका मंदाना, आलिया भट्टसह अनेक प्रसिद्ध लोकांचे डीपफेक व्हिडिओ व्हायरल झाले होते. डीपफेक व्हिडिओबद्दल ज्या व्यक्तिला माहिती नाही, त्याला हे व्हिडिओ खरेही वाटतात. याचाच फायदा लोकसभा निवडणुकीत घेतला जात आहे. निवडणुकीत बॉलीवूड अभिनेते पक्षात प्रचार करत असलेले डीपफेक व्हिडिओ व्हायरल होत आहेत. लोकसभा निवडणुकीच्या पहिल्या टप्प्यातील मतदान शुक्रवारी (१९ एप्रिल) पार पडले. गेल्या काही आठवड्यांपासून, सोशल मीडियावर अनेक चुकीच्या गोष्टी व्हायरल होत आहेत. अलीकडेच अभिनेता आमिर खान याचे दोन व्हिडिओ व्हायरल झाले, ज्यात तो काँग्रेसचा प्रचार करताना दिसत आहे.

अभिनेता आमिर खानचे व्हायरल झालेले दोन्ही व्हिडिओ त्याच्या लोकप्रिय टीव्ही मालिका सत्यमेव जयतेचा प्रोमो व्हिडिओ घेऊन तयार करण्यात आले आहे. या व्हीडिओत अभिनेता आमिर खान स्पष्टपणे काँग्रेस पक्षाला पाठिंबा देताना दिसत आहे, तर दुसऱ्या व्हीडिओमध्ये न्याय मिळण्याविषयी बोलताना दिसत आहे. ‘न्याय’ हा काँग्रेसचा निवडणुकीतील प्रमुख मुद्दा आहे आणि काँग्रेसच्या जाहीरनाम्याचे शीर्षकही ‘न्याय पत्र’ आहे.

bollywood actors went to kareena home to meet her and kids
Video : सैफला भेटून बहिणीचे डोळे पाणावले! करण जोहर, रणबीरसह ‘हे’ बॉलीवूड कलाकार पोहोचले करीनाच्या भेटीला
Pompeii
Pompeii: २५०० वर्षांपूर्वी भारतीय लक्ष्मी इटलीमध्ये कशी पोहोचली?
kareena kapoor at lilavati hospital video viral
सैफ अली खानला भेटायला पोलिसांबरोबर रुग्णालयात पोहोचली करीना कपूर खान, Video Viral
kareena Kapoor video last night from recidence after the incident
Video: पतीवर झालेल्या हल्ल्याने करीना कपूर चिंतेत; घटनेनंतर घराबाहेरील पहिला व्हिडीओ आला समोर
Encounter Specialist Daya Nayak Arrives at Saif Ali Khan home
Video: एन्काउंटर स्पेशालिस्ट दया नायक पोहोचले सैफ अली खानच्या घरी, तपासाचा व्हिडीओ आला समोर
saif ali khan fought intruder wife kareena and sons were at home
सैफ अली खानवर चाकू हल्ला झाला तेव्हा करीना कपूर कुठे होती? इन्स्टाग्राम स्टोरी चर्चेत, खरी माहिती आली समोर
yograj singh criticise aamir khan movie
आमिर खानच्या ‘त्या’ सिनेमाला युवराज सिंगच्या वडिलांनी म्हटले ‘अतिशय फालतू’; बॉलीवूड सिनेमांवरही केली टीका, म्हणाले…
Jitendra Awhad claims Booth captured in Parli alleges Dhananjay Munde
“हत्यारे व गुंडांच्या जोरावर मतदान केंद्र ताब्यात, विरोधी उमेदवार, पोलिसांना दमदाटी”, आव्हाडांनी शेअर केला परळीतला धक्कादायक VIDEO

हेही वाचा : जीवनावश्यक वस्तू खरेदी करणेही कठीण; कर्ज फेडू न शकणाऱ्यांना चीन कशी शिक्षा करत आहे?

आमिर खानसह अभिनेता रणवीर सिंहदेखील डीपफेक तंत्रज्ञानाचा बळी ठरला आहे. बेरोजगारी आणि महागाईच्या मुद्द्यांवर पंतप्रधान नरेंद्र मोदी यांच्यावर टीका करतानाचा त्याचा एक व्हिडिओ मोठ्या प्रमाणात व्हायरल झाला. मात्र, मूळ व्हडिओत तो पंतप्रधानांची स्तुती करत आहे. त्यामुळे जे लोक याबद्दल जागरूक नाहीत, अशा अनेकांच्या मनात संभ्रम निर्माण होतो. अनेकांना डीपफेक व्हीडिओज किंवा चुकीची व्हायरल होत असलेली माहिती खरी वाटते. त्यामुळे या निवडणूक काळात चुकीची माहिती कशी ओळखायची? डीपफेक व्हिडिओ कसे तयार केले जातात? डीपफेक व्हिडिओ कसे ओळखायचे? याबद्दल जाणून घेऊ या.

व्हॉइस स्वॅप तंत्रज्ञान

एआय प्रणालीचा वापर करून तयार करण्यात आलेले व्हिडिओ किंवा इतर गोष्टी ओळखण्यासाठी आयआयटी जोधपूरने itisaar.ai नावाचे एक तंत्रज्ञान तयार केले आहे. या तंत्रज्ञानानुसार व्हायरल होत असलेले व्हिडिओ ‘व्हॉइस स्वॅप’ तंत्रज्ञान वापरून तयार केले गेले आहेत. आपल्या नावाप्रमाणेच हे तंत्रज्ञान खर्‍या ऑडिओ क्लिपची मदत घेऊन एखाद्या व्यक्तीच्या आवाजातील बनावट ऑडिओ क्लिप तयार करू शकते. त्यात एआय अल्गोरिदमचा वापर होतो. व्हिडिओ अधिकाधिक खरे वाटावे, यासाठी हे तंत्रज्ञान वापरुन आवाजातील वैशिष्ट्ये, जसे की, उच्चारण, टोन, गती आदि सर्वच गोष्टींवर काम करता येते.

सध्या, वापरण्यास अगदी सोयिस्कर अशी ‘व्हॉइस स्वॅप’ साधने विनामूल्य उपलब्ध आहेत. एखाद्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची असल्यास, केवळ खर्‍या ऑडिओ क्लिपची गरज असते. अपलोड केलेला ऑडिओ आवाज खरा वाटावा यासाठी या तंत्रज्ञानात काही सेटिंग्स बदलाव्या लागतात. विशेष म्हणजे अवघ्या काही मिनिटात हे खरे वाटणारे डिपफेक ऑडिओ किंवा व्हिडिओ तयार होतात.

डीपफेक कसे ओळखायचे?

डीपफेक व्हिडिओ किंवा ऑडिओ ओळखणे कठीण असले, तरी सोशल मीडिया स्क्रोल करताना खाली दिलेल्या काही गोष्टींचे पालन केल्यास, हे व्हिडिओ किंवा ऑडिओ ओळखायला मदत होऊ शकते.

-सतर्क रहा: सोशल मीडियावरील आपले खाते प्रायव्हेट करून ठेवणे आणि त्याची मर्यादा ओळखीच्या लोकांपर्यंत ठेवणे आवश्यक आहे.

-स्रोत तपासा: अपरिचित स्त्रोतांकडून एखादा ऑडिओ किंवा व्हिडिओ आल्यास, त्यावर लगेच विश्वास टाकू नका. अशा संशयास्पद विशेषत: विवादास्पद सामग्रीपासून दूर रहा. कोणत्याही संशयास्पद सामग्रीची विश्वासार्हता तपासण्यासाठी विश्वसनीय माध्यम संस्थांकडून संदर्भ घेऊन ती तपासा.

-ऑडिओ लक्षपूर्वक ऐका: डीपफेक ऑडिओमध्ये काही चुकीच्या गोष्टी आढळतात, जसे की टोन, रोबोटिक भाषाशैली आणि बोलताना चुकीच्या ठिकाणी थांबणे. ऑडिओ लक्षपूर्वक ऐकल्यास त्याची सत्यता आपल्याला कळते.

-व्हिडिओ सामग्रीची पडताळणी: डीपफेक ऑडिओमध्ये अनेकदा फेरफार केलेली व्हिडिओ सामग्री असते. एखादा खरा व्हिडिओ घेऊन त्यात डीपफेक ऑडिओ टाकला जातो. अशावेळी, एखाद्या व्हडिओवर संशय असल्यास त्यातल्या हालचालींचे निरीक्षण करा. बोलताना व्हीडिओतील व्यक्तीचे ओठ, तो काय बोलतोय याच्याशी जुळत आहेत का, याकडे लक्ष द्या. त्यावरूनही डीपफेक व्हिडिओ ओळखता येतात.

-अपडेट राहणे : डीपफेकशी संबंधित घडामोडी आणि त्याचा धोका ओळखण्यासाठी दैनंदिन बातम्या माहिती असणे आणि अपडेट राहणे महत्त्वाचे आहे. आपल्या आजूबाजूला काय घडत आहे, याची जाणीव असलेले लोक अशा जाळ्यात अडकत नाहीत.

हेही वाचा : Nestle Controversy : नेस्लेच्या बेबी फूडमध्ये साखरेचे प्रमाण जास्त; साखर आरोग्यासाठी घातक का?

-एआय व्हॉइस डिटेक्टर वापरा: ऑप्टिकचे ‘एआय ऑर नॉट’ सारखे काही एआय डिटेक्टर विनामूल्य वापरण्यासाठी उपलब्ध आहेत. तुम्ही अशा डिटेक्टरवर कोणताही संशयास्पद ऑडिओ किंवा व्हिडिओ अपलोड करू शकता, जो तुम्हाला या सामग्रीची सत्यता सांगेल.

Story img Loader