Aamir Khan Deepfake Video गेल्या महिन्यात बॉलिवूडमधील अभिनेत्री रश्मिका मंदाना, आलिया भट्टसह अनेक प्रसिद्ध लोकांचे डीपफेक व्हिडिओ व्हायरल झाले होते. डीपफेक व्हिडिओबद्दल ज्या व्यक्तिला माहिती नाही, त्याला हे व्हिडिओ खरेही वाटतात. याचाच फायदा लोकसभा निवडणुकीत घेतला जात आहे. निवडणुकीत बॉलीवूड अभिनेते पक्षात प्रचार करत असलेले डीपफेक व्हिडिओ व्हायरल होत आहेत. लोकसभा निवडणुकीच्या पहिल्या टप्प्यातील मतदान शुक्रवारी (१९ एप्रिल) पार पडले. गेल्या काही आठवड्यांपासून, सोशल मीडियावर अनेक चुकीच्या गोष्टी व्हायरल होत आहेत. अलीकडेच अभिनेता आमिर खान याचे दोन व्हिडिओ व्हायरल झाले, ज्यात तो काँग्रेसचा प्रचार करताना दिसत आहे.

अभिनेता आमिर खानचे व्हायरल झालेले दोन्ही व्हिडिओ त्याच्या लोकप्रिय टीव्ही मालिका सत्यमेव जयतेचा प्रोमो व्हिडिओ घेऊन तयार करण्यात आले आहे. या व्हीडिओत अभिनेता आमिर खान स्पष्टपणे काँग्रेस पक्षाला पाठिंबा देताना दिसत आहे, तर दुसऱ्या व्हीडिओमध्ये न्याय मिळण्याविषयी बोलताना दिसत आहे. ‘न्याय’ हा काँग्रेसचा निवडणुकीतील प्रमुख मुद्दा आहे आणि काँग्रेसच्या जाहीरनाम्याचे शीर्षकही ‘न्याय पत्र’ आहे.

Raj Thackeray on Code of Conduct
Raj Thackeray : “एकदा एक कॅमेरावाला बाथरूमपर्यंत…”, राज ठाकरेंनी सांगितली पूर्वीच्या आचारसंहितेच्या काळातील गंमत!
IND vs NZ AB de Villiers on Rishabh Pant Controversial Dismissal
IND vs NZ : ऋषभ पंतच्या वादग्रस्त विकेटवर…
Raj Thackeray on Viral Video
Raj Thackeray : “लोकांच्या मनोरंजनाकरता बाई भोजपुरी गाण्यावर नाचतेय”, ‘त्या’ व्हायरल VIDEO वर राज ठाकरेंची संतप्त प्रतिक्रिया!
Sanjay Raut on Dawood Ibrahim fact check video
संजय राऊतांनी दिले दाऊद इब्राहिमला क्लीन चिट देण्याचे आश्वासन? Viral Video मुळे राजकीय वर्तुळात खळबळ; वाचा सत्य घटना
chhagan bhujbal on manoj jarange decision to not contest maharashtra assembly election spb 94
मनोज जरांगेंची विधानसभा निवडणुकीतून माघार; छगन भुजबळ म्हणाले, “हा निर्णय म्हणजे…”
Bigg Boss Marathi 5 fame Nikki Tamboli was called vahini by paparazzi video viral
Video: ‘वहिनी’ हाक मारताच लाजली निक्की तांबोळी, अरबाज पटेलबरोबरचा ‘तो’ व्हिडीओ होतोय व्हायरल
suraj chavan new reel comments
सूरज चव्हाणचे ट्रेडिंग गाण्यावर रील पाहून युजर म्हणाला, “भाऊ, तू असे व्हिडीओ नको बनवत जाऊस…”
Bigg Boss Marathi fame Nikki Tamboli and Arbaaz Patel shared a special video on occasion of Diwali, Rakhi Sawant comment viral
Video: ‘बिग बॉस मराठी’ फेम निक्की तांबोळी-अरबाज पटेलने दिवाळीनिमित्ताने शेअर केला खास व्हिडीओ, राखी सावंतच्या प्रतिक्रियेने वेधलं लक्ष

हेही वाचा : जीवनावश्यक वस्तू खरेदी करणेही कठीण; कर्ज फेडू न शकणाऱ्यांना चीन कशी शिक्षा करत आहे?

आमिर खानसह अभिनेता रणवीर सिंहदेखील डीपफेक तंत्रज्ञानाचा बळी ठरला आहे. बेरोजगारी आणि महागाईच्या मुद्द्यांवर पंतप्रधान नरेंद्र मोदी यांच्यावर टीका करतानाचा त्याचा एक व्हिडिओ मोठ्या प्रमाणात व्हायरल झाला. मात्र, मूळ व्हडिओत तो पंतप्रधानांची स्तुती करत आहे. त्यामुळे जे लोक याबद्दल जागरूक नाहीत, अशा अनेकांच्या मनात संभ्रम निर्माण होतो. अनेकांना डीपफेक व्हीडिओज किंवा चुकीची व्हायरल होत असलेली माहिती खरी वाटते. त्यामुळे या निवडणूक काळात चुकीची माहिती कशी ओळखायची? डीपफेक व्हिडिओ कसे तयार केले जातात? डीपफेक व्हिडिओ कसे ओळखायचे? याबद्दल जाणून घेऊ या.

व्हॉइस स्वॅप तंत्रज्ञान

एआय प्रणालीचा वापर करून तयार करण्यात आलेले व्हिडिओ किंवा इतर गोष्टी ओळखण्यासाठी आयआयटी जोधपूरने itisaar.ai नावाचे एक तंत्रज्ञान तयार केले आहे. या तंत्रज्ञानानुसार व्हायरल होत असलेले व्हिडिओ ‘व्हॉइस स्वॅप’ तंत्रज्ञान वापरून तयार केले गेले आहेत. आपल्या नावाप्रमाणेच हे तंत्रज्ञान खर्‍या ऑडिओ क्लिपची मदत घेऊन एखाद्या व्यक्तीच्या आवाजातील बनावट ऑडिओ क्लिप तयार करू शकते. त्यात एआय अल्गोरिदमचा वापर होतो. व्हिडिओ अधिकाधिक खरे वाटावे, यासाठी हे तंत्रज्ञान वापरुन आवाजातील वैशिष्ट्ये, जसे की, उच्चारण, टोन, गती आदि सर्वच गोष्टींवर काम करता येते.

सध्या, वापरण्यास अगदी सोयिस्कर अशी ‘व्हॉइस स्वॅप’ साधने विनामूल्य उपलब्ध आहेत. एखाद्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची असल्यास, केवळ खर्‍या ऑडिओ क्लिपची गरज असते. अपलोड केलेला ऑडिओ आवाज खरा वाटावा यासाठी या तंत्रज्ञानात काही सेटिंग्स बदलाव्या लागतात. विशेष म्हणजे अवघ्या काही मिनिटात हे खरे वाटणारे डिपफेक ऑडिओ किंवा व्हिडिओ तयार होतात.

डीपफेक कसे ओळखायचे?

डीपफेक व्हिडिओ किंवा ऑडिओ ओळखणे कठीण असले, तरी सोशल मीडिया स्क्रोल करताना खाली दिलेल्या काही गोष्टींचे पालन केल्यास, हे व्हिडिओ किंवा ऑडिओ ओळखायला मदत होऊ शकते.

-सतर्क रहा: सोशल मीडियावरील आपले खाते प्रायव्हेट करून ठेवणे आणि त्याची मर्यादा ओळखीच्या लोकांपर्यंत ठेवणे आवश्यक आहे.

-स्रोत तपासा: अपरिचित स्त्रोतांकडून एखादा ऑडिओ किंवा व्हिडिओ आल्यास, त्यावर लगेच विश्वास टाकू नका. अशा संशयास्पद विशेषत: विवादास्पद सामग्रीपासून दूर रहा. कोणत्याही संशयास्पद सामग्रीची विश्वासार्हता तपासण्यासाठी विश्वसनीय माध्यम संस्थांकडून संदर्भ घेऊन ती तपासा.

-ऑडिओ लक्षपूर्वक ऐका: डीपफेक ऑडिओमध्ये काही चुकीच्या गोष्टी आढळतात, जसे की टोन, रोबोटिक भाषाशैली आणि बोलताना चुकीच्या ठिकाणी थांबणे. ऑडिओ लक्षपूर्वक ऐकल्यास त्याची सत्यता आपल्याला कळते.

-व्हिडिओ सामग्रीची पडताळणी: डीपफेक ऑडिओमध्ये अनेकदा फेरफार केलेली व्हिडिओ सामग्री असते. एखादा खरा व्हिडिओ घेऊन त्यात डीपफेक ऑडिओ टाकला जातो. अशावेळी, एखाद्या व्हडिओवर संशय असल्यास त्यातल्या हालचालींचे निरीक्षण करा. बोलताना व्हीडिओतील व्यक्तीचे ओठ, तो काय बोलतोय याच्याशी जुळत आहेत का, याकडे लक्ष द्या. त्यावरूनही डीपफेक व्हिडिओ ओळखता येतात.

-अपडेट राहणे : डीपफेकशी संबंधित घडामोडी आणि त्याचा धोका ओळखण्यासाठी दैनंदिन बातम्या माहिती असणे आणि अपडेट राहणे महत्त्वाचे आहे. आपल्या आजूबाजूला काय घडत आहे, याची जाणीव असलेले लोक अशा जाळ्यात अडकत नाहीत.

हेही वाचा : Nestle Controversy : नेस्लेच्या बेबी फूडमध्ये साखरेचे प्रमाण जास्त; साखर आरोग्यासाठी घातक का?

-एआय व्हॉइस डिटेक्टर वापरा: ऑप्टिकचे ‘एआय ऑर नॉट’ सारखे काही एआय डिटेक्टर विनामूल्य वापरण्यासाठी उपलब्ध आहेत. तुम्ही अशा डिटेक्टरवर कोणताही संशयास्पद ऑडिओ किंवा व्हिडिओ अपलोड करू शकता, जो तुम्हाला या सामग्रीची सत्यता सांगेल.