एआय डीपफेक तंत्रज्ञान काही दिवसांपासून चर्चेत आहे. दाक्षिणात्य अभिनेत्री रश्मिका मंदानाचा डीपफेक व्हिडीओ व्हायरल झाल्यानंतर अनेक क्षेत्रांमधून याबद्दल चिंता व्यक्त करण्यात आली. पंतप्रधान नरेंद्र मोदी यांनीही या तंत्रज्ञानाच्या गैरवापराबद्दल भाष्य केले. डीपफेक तंत्रज्ञानाने आता निवडणूक प्रचारातही शिरकाव केल्याचे चित्र पाच राज्यांतील विधानसभा निवडणुकांच्या निमित्ताने समोर आले. तेलंगणामध्ये गुरुवारी (३० नोव्हेंबर) विधानसभेसाठी मतदान पार पडले. भारत राष्ट्र समितीचे प्रमुख व मुख्यमंत्री के. चंद्रशेखर यांनी निवडणूक आयोगाला पत्र लिहून काँग्रेसने प्रचारात डीपफेक तंत्रज्ञानाने तयार केलेला व्हिडीओ वापरून मतदारांची दिशाभूल केल्याचा आरोप केला आहे.

आर्काइव्हमधील सर्व बातम्या मोफत वाचण्यासाठी कृपया रजिस्टर करा

तेलंगणाच्या निवडणूक प्रचारादरम्यान सोशल मीडियावर अनेक डीपफेक व्हिडीओ आणि ऑडिओ प्रसारित झाल्यामुळे मतदार गोंधळात पडल्याची परिस्थिती निर्माण झाल्याची उदाहरणे पाहायला मिळाली आहेत. फक्त तेलंगणाच नाही, तर इतर ठिकाणीही राजकारण्यांनी कृत्रिम प्रज्ञेद्वारे (Artificial Intelligence – AI) फोटो, व्हिडीओ आणि ऑडिओ संदेश तयार करून, निवडणुकीत प्रसारित केल्याची उदाहरणे समोर आली आहेत. फर्स्टपोस्ट संकेतस्थळाने या घटनांचा सविस्तर आढावा घेतला आहे. राजकीय क्षेत्रात डीपफेकसारख्या तंत्रज्ञानाचा शिरकाव किती चिंताजनक असू शकतो? यावर टाकलेली एक नजर…

हे वाचा >> डीपफेक तंत्राचा राजकीय क्षेत्रावर परिणाम काय? चुकीची माहिती कशी ओळखाल? जाणून घ्या…

तेलंगणामध्ये डीपफेकचा ओझरता वापर

गुरुवारी (३० नोव्हेंबर) तेलंगणा विधानसभा निवडणुकीसाठी मतदार रांगेत उभे राहून मतदान करीत असताना काँग्रेस पक्षाच्या एक्स या सोशल मीडिया हँडलवर भारत राष्ट्र समितीचे कार्याध्यक्ष व तेलंगणाचे मंत्री के. टी. रामा राव (केटीआर) यांचा एक व्हिडीओ शेअर करण्यात आला. या व्हिडीओमध्ये ते स्वतःच्याच पक्षाच्या विरोधात बोलत असून, काँग्रेसला मतदान करण्याचे आवाहन करताना दिसत आहेत. हा व्हिडीओ तेलुगू भाषेत आहे.

भारत राष्ट्र समितीने हे प्रकरण गंभीरपणे घेतले असून, तेलंगणा प्रदेश काँग्रेस समितीविरोधात निवडणूक आयोगाकडे तक्रार दाखल केली आहे. “तेलंगणा प्रदेश काँग्रेसकडून डीपफेक तंत्रज्ञानाचा आणि कृत्रिम प्रज्ञेचा वापर करून बनावट ऑडिओ आणि व्हिडीओ सामग्री निर्माण करून, ती प्रसारित करण्यात येत आहे”, असा आरोप बीआरएसने निवडणूक आयोगाला पाठविलेल्या पत्रात केला.

हे वाचा >> ‘डीपफेक’चं वास्तव

या प्रकरणात निवडणूक आयोगाने तत्काळ लक्ष घालावे; जेणेकरून निवडणूक निष्पक्षतेला बाधा पोहोचणार नाही. काँग्रेसने मतदानाच्या दिवशी सकाळी ७ वाजून १९ मिनिटांनी के. टी. रामा राव यांचा व्हिडrओ एक्स साईटवर टाकल्यानंतर अवघ्या २० मिनिटांत बीआरएसने निवडणूक आयोगाकडे तक्रार दाखल केली आणि एक्सवरून त्याची माहितीही दिली.

न्यूज १८ वाहिनीशी बोलताना केटीआर यांनी काँग्रेस पक्षावर आरोप करताना ‘काँग्रेस डीपफेक पक्ष’ असल्याचे म्हटले.

हा व्हिडीओ प्रसारित होण्याच्या दोन दिवस आधीच केटीआर यांनी बीआरएसच्या कार्यकर्त्यांना काँग्रेसच्या डीपफेक प्रचारापासून सावध राहण्यास सांगितले होते. “स्कॅमग्रेस यांच्याकडून पुढील काही दिवसांत बोगस आणि डीपफेक तंत्रज्ञान वापरून निरर्थक प्रचार केला जाऊ शकतो. त्यामुळे कार्यकर्त्यांनी सावधगिरी बाळगावी”, असे आवाहन केटीआर यांनी शुक्रवारी (२४ नोव्हेंबर) केले होते.

तेलंगणाच्या निवडणूक प्रचारात डीपफेक तंत्रज्ञानाला बळी पडलेले केटीआर हे एकमेव नेते नाहीत. त्याआधी बीआरएसचे आणखी एक नेते व तेलंगणाचे मंत्री मल्ला रेड्डी यांचा नाचतानाचा व्हिडीओ व्हायरल झाला होता. “केसीआर यांना मत द्या आणि नोकरी मिळवा”, असे मल्ला रेड्डी बोलत असल्याचे व्हिडीओमध्ये दिसत होते.

वायएसआर तेलंगणा पक्षाच्या प्रमुख वाय. एस. शर्मिला यांनी तेलंगणा निवडणुकीतून माघार घेतली असली तरी निवडणूक काळात त्यांचाही एक डीपफेक व्हिडीओ व्हायरल झाला होता. रुग्णालयात उपचार घेताना त्या तंबाखूच्या सेवनाचे घातक परिणाम सांगत असल्याचा हा व्हिडीओ होता.

तेलंगणा काँग्रेसचे प्रदेशाध्यक्ष ए. रेवंथ रेड्डी यांचाही एक डीपफेक व्हिडीओ व्हायरल झाला. त्यात ते बीआरएसबद्दल प्रतिकूल मत व्यक्त करताना दिसत होते.

इतर राजकीय नेत्यांचे डीपफेक व्हिडीओ-ऑडिओ

फक्त तेलगंणाच नाही, तर इतर राज्यांतील राजकारण्यांचेही डीपफेक व्हिडीओ-ऑडिओ व्हायरल झाले आहेत. १७ नोव्हेंबर रोजी मध्य प्रदेशमध्ये विधानसभेचे मतदान पार पडत असताना पंतप्रधान नरेंद्र मोदी यांचा महिलांसह गरबा खेळतानाचा एक डीपफेक व्हिडीओ व्हायरल झाला. या व्हिडीओबद्दल एका जाहीर सभेत पंतप्रधान मोदी म्हणाले, “हा व्हिडीओ इतका चांगल्या पद्धतीने बनवला गेला की, मीदेखील हैराण झालो; पण मला लहानपणापासून कधीही गरबा खेळण्याची संधी मिळाली नाही,” असे स्पष्टीकरण त्यांनी दिले.

मध्य प्रदेश विधानसभा निवडणुकीशी निगडित कौन बनेगा करोडपती या लोकप्रिय शोमधील एक व्हिडीओ व्हायरल झाला होता. या व्हिडीओत कौन बनेगा करोडपती या शोचे सूत्रसंचालक अमिताभ बच्चन हे मध्य प्रदेशमधील सरकारविरोधी भावनेबाबतचा (anti-incumbency) एक प्रश्न विचारताना दिसतात.

या वर्षी एप्रिल महिन्यात भाजपाचे तमिळनाडू प्रदेशाध्यक्ष के. अण्णामलाई यांनी द्रमुक पक्षाचे नेते व राज्याचे अर्थमंत्री पी. त्यागराजन यांच्या एका वादग्रस्त ऑडिओ क्लिपचा हवाला देऊन सरकारवर आरोप केले होते. या ऑडिओ क्लिपमध्ये अर्थमंत्री पी. त्यागराजन त्यांच्याच पक्षाच्या एका नेत्यावर बेकायदा ३० हजार कोटी जमवल्याचा आरोप करीत होते. त्यागराजन यांनी मात्र या ऑडिओची सत्यता नाकारली. ही ऑडिओ क्लिप बोगस व मशीनद्वारे निर्मित केल्याचा आरोप त्यांनी केला.

आणखी वाचा >> अग्रलेख : आधीच ‘फेक’; त्यात ‘डीपफेक’!

तज्ज्ञांचे म्हणणे काय?

अभिनेत्री रश्मिका मंदानाचा व्हिडीओ व्हायरल झाल्यानंतर कतरिना कैफ, आलिया भट, काजोल यांचेही डीपफेक व्हिडीओ व्हायरल झाले. त्यामुळे डीपफेक तंत्रज्ञानाबद्दल गंभीरपणे चर्चा झाली. डीपफेक व्हिडीओंची संख्या वाढू लागल्यानंतर माहिती व तंत्रज्ञानमंत्री अश्विनी वैष्णव यांनी डीपफेक तंत्रज्ञानाद्वारे तयार केलेली बोगस सामग्री लोकशाहीसाठी घातक असल्याचे म्हटले.

एवढेच नाही, तर तपास यंत्रणांनाही डीपफेक सामग्रीची ओळख करणे कठीण झाले आहे. पोलिसांनी सांगितले की, डीपफेक तंत्रज्ञानावर आधारित अनेक ॲप्लिकेशन्स आल्यामुळे खरी आणि फेरफार केलेली सामग्री यांच्यात फरक करणे कठीण झाले आहे; ज्यामुळे निवडणुकीच्या काळात गोंधळ उडण्याची शक्यता आहे.

हैदराबाद सायबर गुन्हे अन्वेषण विभागाचे अतिरिक्त आयुक्त शिवा मूर्ती यांनी सांगितले की, कृत्रिम प्रज्ञेचा वापर अधिकाधिक वाढल्यामुळे आमच्यासमोर आव्हान निर्माण झाले आहे. कृत्रिम प्रज्ञेद्वारे तयार केलेले व्हिडीओ आणि डीपफेक ॲप्स हे निवडणूक प्रक्रियेसाठी धोकादायक बनले आहेत. याबाबत सायबर तज्ज्ञांसह आम्ही चर्चा करीत असून, या नव्या तंत्रज्ञानाला सक्षमपणे कसे तोंड देता येईल, याचा प्रयत्न आम्ही करीत आहोत.

२०२३ या वर्षात डीपफेक तंत्रज्ञानामुळे अश्लील (pornographic) सामग्रीला बळी पडण्यात भारताचा जगातून सहावा क्रमांक; तर दक्षिण कोरियाचा प्रथम क्रमांक आहे. दक्षिण कोरियातील ५३ टक्के गायक व अभिनेत्रींचे डीपफेक व्हिडीओ तयार करण्यात आले आहेत.

डीपफेक तंत्रज्ञान आणि कृत्रिम प्रज्ञा (AI) यांचा चुकीचा वापर निवडणुकांवर नकारात्मक परिणाम करू शकतो, असे अनेक तज्ज्ञ सांगत आहेत. यूव्हीए सायबर प्रायव्हसीच्या तज्ज्ञ डॅनिएल सिट्रॉन यांनी २०१९ साली लिहिलेल्या शोधनिबंधात नमूद केले की, जी कृती एखाद्या लोकप्रिय व्यक्तिमत्त्वाने कधी केलीच नाही, अशी कृती एआयमुळे व्हिडीओ आणि ऑडिओद्वारे तयार करून दाखविणे शक्य होते. फर्स्टपोस्टने सिट्रॉन यांच्या प्रतिक्रियेचा दाखला दिला आहे. त्यात त्या पुढे म्हणतात, “निवडणुकीच्या निकालावर एआय तंत्रज्ञान प्रभाव टाकू शकते. विशेष करून, अशी सामग्री तयार करून वितरित करण्यासाठी निर्माणकर्त्याकडे पुरेसा वेळ असेल आणि त्या सामग्रीच्या पीडित व्यक्तीकडे ती रोखण्यासाठी वेळ उरलेला नसेल, तर याचा मोठा परिणाम निकालावर दिसू शकतो.”

भारतासारख्या देशात तर याचे गंभीर परिणाम दिसू शकतात. जिंदाल विद्यापीठातील व्याख्याते दिग्विजय राणा यांची एक प्रतिक्रिया फर्स्टपोस्टने दिली आहे. त्यात ते म्हणाले, जगातील इतर देशांच्या तुलनेत भारतामध्ये इंटरनेट डेटा स्वस्त आहे. त्यामुळे एआय तंत्रज्ञानाद्वारे तयार केलेली सामग्री लगेच व्हायरल होऊ शकते. त्यामुळे भारत या तंत्रज्ञानाला अधिक बळी पडू शकतो.

मराठीतील सर्व लोकसत्ता विश्लेषण बातम्या वाचा. मराठी ताज्या बातम्या (Latest Marathi News) वाचण्यासाठी डाउनलोड करा लोकसत्ताचं Marathi News App.
Web Title: How artificial intelligence is wreaking havoc for politicians brs leader kt rama rao falls prey to deepfake kvg