एआय डीपफेक तंत्रज्ञान काही दिवसांपासून चर्चेत आहे. दाक्षिणात्य अभिनेत्री रश्मिका मंदानाचा डीपफेक व्हिडीओ व्हायरल झाल्यानंतर अनेक क्षेत्रांमधून याबद्दल चिंता व्यक्त करण्यात आली. पंतप्रधान नरेंद्र मोदी यांनीही या तंत्रज्ञानाच्या गैरवापराबद्दल भाष्य केले. डीपफेक तंत्रज्ञानाने आता निवडणूक प्रचारातही शिरकाव केल्याचे चित्र पाच राज्यांतील विधानसभा निवडणुकांच्या निमित्ताने समोर आले. तेलंगणामध्ये गुरुवारी (३० नोव्हेंबर) विधानसभेसाठी मतदान पार पडले. भारत राष्ट्र समितीचे प्रमुख व मुख्यमंत्री के. चंद्रशेखर यांनी निवडणूक आयोगाला पत्र लिहून काँग्रेसने प्रचारात डीपफेक तंत्रज्ञानाने तयार केलेला व्हिडीओ वापरून मतदारांची दिशाभूल केल्याचा आरोप केला आहे.

या बातमीसह सर्व प्रीमियम कंटेंट वाचण्यासाठी साइन-इन करा
Skip
या बातमीसह सर्व प्रीमियम कंटेंट वाचण्यासाठी साइन-इन करा

तेलंगणाच्या निवडणूक प्रचारादरम्यान सोशल मीडियावर अनेक डीपफेक व्हिडीओ आणि ऑडिओ प्रसारित झाल्यामुळे मतदार गोंधळात पडल्याची परिस्थिती निर्माण झाल्याची उदाहरणे पाहायला मिळाली आहेत. फक्त तेलंगणाच नाही, तर इतर ठिकाणीही राजकारण्यांनी कृत्रिम प्रज्ञेद्वारे (Artificial Intelligence – AI) फोटो, व्हिडीओ आणि ऑडिओ संदेश तयार करून, निवडणुकीत प्रसारित केल्याची उदाहरणे समोर आली आहेत. फर्स्टपोस्ट संकेतस्थळाने या घटनांचा सविस्तर आढावा घेतला आहे. राजकीय क्षेत्रात डीपफेकसारख्या तंत्रज्ञानाचा शिरकाव किती चिंताजनक असू शकतो? यावर टाकलेली एक नजर…

हे वाचा >> डीपफेक तंत्राचा राजकीय क्षेत्रावर परिणाम काय? चुकीची माहिती कशी ओळखाल? जाणून घ्या…

तेलंगणामध्ये डीपफेकचा ओझरता वापर

गुरुवारी (३० नोव्हेंबर) तेलंगणा विधानसभा निवडणुकीसाठी मतदार रांगेत उभे राहून मतदान करीत असताना काँग्रेस पक्षाच्या एक्स या सोशल मीडिया हँडलवर भारत राष्ट्र समितीचे कार्याध्यक्ष व तेलंगणाचे मंत्री के. टी. रामा राव (केटीआर) यांचा एक व्हिडीओ शेअर करण्यात आला. या व्हिडीओमध्ये ते स्वतःच्याच पक्षाच्या विरोधात बोलत असून, काँग्रेसला मतदान करण्याचे आवाहन करताना दिसत आहेत. हा व्हिडीओ तेलुगू भाषेत आहे.

भारत राष्ट्र समितीने हे प्रकरण गंभीरपणे घेतले असून, तेलंगणा प्रदेश काँग्रेस समितीविरोधात निवडणूक आयोगाकडे तक्रार दाखल केली आहे. “तेलंगणा प्रदेश काँग्रेसकडून डीपफेक तंत्रज्ञानाचा आणि कृत्रिम प्रज्ञेचा वापर करून बनावट ऑडिओ आणि व्हिडीओ सामग्री निर्माण करून, ती प्रसारित करण्यात येत आहे”, असा आरोप बीआरएसने निवडणूक आयोगाला पाठविलेल्या पत्रात केला.

हे वाचा >> ‘डीपफेक’चं वास्तव

या प्रकरणात निवडणूक आयोगाने तत्काळ लक्ष घालावे; जेणेकरून निवडणूक निष्पक्षतेला बाधा पोहोचणार नाही. काँग्रेसने मतदानाच्या दिवशी सकाळी ७ वाजून १९ मिनिटांनी के. टी. रामा राव यांचा व्हिडrओ एक्स साईटवर टाकल्यानंतर अवघ्या २० मिनिटांत बीआरएसने निवडणूक आयोगाकडे तक्रार दाखल केली आणि एक्सवरून त्याची माहितीही दिली.

न्यूज १८ वाहिनीशी बोलताना केटीआर यांनी काँग्रेस पक्षावर आरोप करताना ‘काँग्रेस डीपफेक पक्ष’ असल्याचे म्हटले.

हा व्हिडीओ प्रसारित होण्याच्या दोन दिवस आधीच केटीआर यांनी बीआरएसच्या कार्यकर्त्यांना काँग्रेसच्या डीपफेक प्रचारापासून सावध राहण्यास सांगितले होते. “स्कॅमग्रेस यांच्याकडून पुढील काही दिवसांत बोगस आणि डीपफेक तंत्रज्ञान वापरून निरर्थक प्रचार केला जाऊ शकतो. त्यामुळे कार्यकर्त्यांनी सावधगिरी बाळगावी”, असे आवाहन केटीआर यांनी शुक्रवारी (२४ नोव्हेंबर) केले होते.

तेलंगणाच्या निवडणूक प्रचारात डीपफेक तंत्रज्ञानाला बळी पडलेले केटीआर हे एकमेव नेते नाहीत. त्याआधी बीआरएसचे आणखी एक नेते व तेलंगणाचे मंत्री मल्ला रेड्डी यांचा नाचतानाचा व्हिडीओ व्हायरल झाला होता. “केसीआर यांना मत द्या आणि नोकरी मिळवा”, असे मल्ला रेड्डी बोलत असल्याचे व्हिडीओमध्ये दिसत होते.

वायएसआर तेलंगणा पक्षाच्या प्रमुख वाय. एस. शर्मिला यांनी तेलंगणा निवडणुकीतून माघार घेतली असली तरी निवडणूक काळात त्यांचाही एक डीपफेक व्हिडीओ व्हायरल झाला होता. रुग्णालयात उपचार घेताना त्या तंबाखूच्या सेवनाचे घातक परिणाम सांगत असल्याचा हा व्हिडीओ होता.

तेलंगणा काँग्रेसचे प्रदेशाध्यक्ष ए. रेवंथ रेड्डी यांचाही एक डीपफेक व्हिडीओ व्हायरल झाला. त्यात ते बीआरएसबद्दल प्रतिकूल मत व्यक्त करताना दिसत होते.

इतर राजकीय नेत्यांचे डीपफेक व्हिडीओ-ऑडिओ

फक्त तेलगंणाच नाही, तर इतर राज्यांतील राजकारण्यांचेही डीपफेक व्हिडीओ-ऑडिओ व्हायरल झाले आहेत. १७ नोव्हेंबर रोजी मध्य प्रदेशमध्ये विधानसभेचे मतदान पार पडत असताना पंतप्रधान नरेंद्र मोदी यांचा महिलांसह गरबा खेळतानाचा एक डीपफेक व्हिडीओ व्हायरल झाला. या व्हिडीओबद्दल एका जाहीर सभेत पंतप्रधान मोदी म्हणाले, “हा व्हिडीओ इतका चांगल्या पद्धतीने बनवला गेला की, मीदेखील हैराण झालो; पण मला लहानपणापासून कधीही गरबा खेळण्याची संधी मिळाली नाही,” असे स्पष्टीकरण त्यांनी दिले.

मध्य प्रदेश विधानसभा निवडणुकीशी निगडित कौन बनेगा करोडपती या लोकप्रिय शोमधील एक व्हिडीओ व्हायरल झाला होता. या व्हिडीओत कौन बनेगा करोडपती या शोचे सूत्रसंचालक अमिताभ बच्चन हे मध्य प्रदेशमधील सरकारविरोधी भावनेबाबतचा (anti-incumbency) एक प्रश्न विचारताना दिसतात.

या वर्षी एप्रिल महिन्यात भाजपाचे तमिळनाडू प्रदेशाध्यक्ष के. अण्णामलाई यांनी द्रमुक पक्षाचे नेते व राज्याचे अर्थमंत्री पी. त्यागराजन यांच्या एका वादग्रस्त ऑडिओ क्लिपचा हवाला देऊन सरकारवर आरोप केले होते. या ऑडिओ क्लिपमध्ये अर्थमंत्री पी. त्यागराजन त्यांच्याच पक्षाच्या एका नेत्यावर बेकायदा ३० हजार कोटी जमवल्याचा आरोप करीत होते. त्यागराजन यांनी मात्र या ऑडिओची सत्यता नाकारली. ही ऑडिओ क्लिप बोगस व मशीनद्वारे निर्मित केल्याचा आरोप त्यांनी केला.

आणखी वाचा >> अग्रलेख : आधीच ‘फेक’; त्यात ‘डीपफेक’!

तज्ज्ञांचे म्हणणे काय?

अभिनेत्री रश्मिका मंदानाचा व्हिडीओ व्हायरल झाल्यानंतर कतरिना कैफ, आलिया भट, काजोल यांचेही डीपफेक व्हिडीओ व्हायरल झाले. त्यामुळे डीपफेक तंत्रज्ञानाबद्दल गंभीरपणे चर्चा झाली. डीपफेक व्हिडीओंची संख्या वाढू लागल्यानंतर माहिती व तंत्रज्ञानमंत्री अश्विनी वैष्णव यांनी डीपफेक तंत्रज्ञानाद्वारे तयार केलेली बोगस सामग्री लोकशाहीसाठी घातक असल्याचे म्हटले.

एवढेच नाही, तर तपास यंत्रणांनाही डीपफेक सामग्रीची ओळख करणे कठीण झाले आहे. पोलिसांनी सांगितले की, डीपफेक तंत्रज्ञानावर आधारित अनेक ॲप्लिकेशन्स आल्यामुळे खरी आणि फेरफार केलेली सामग्री यांच्यात फरक करणे कठीण झाले आहे; ज्यामुळे निवडणुकीच्या काळात गोंधळ उडण्याची शक्यता आहे.

हैदराबाद सायबर गुन्हे अन्वेषण विभागाचे अतिरिक्त आयुक्त शिवा मूर्ती यांनी सांगितले की, कृत्रिम प्रज्ञेचा वापर अधिकाधिक वाढल्यामुळे आमच्यासमोर आव्हान निर्माण झाले आहे. कृत्रिम प्रज्ञेद्वारे तयार केलेले व्हिडीओ आणि डीपफेक ॲप्स हे निवडणूक प्रक्रियेसाठी धोकादायक बनले आहेत. याबाबत सायबर तज्ज्ञांसह आम्ही चर्चा करीत असून, या नव्या तंत्रज्ञानाला सक्षमपणे कसे तोंड देता येईल, याचा प्रयत्न आम्ही करीत आहोत.

२०२३ या वर्षात डीपफेक तंत्रज्ञानामुळे अश्लील (pornographic) सामग्रीला बळी पडण्यात भारताचा जगातून सहावा क्रमांक; तर दक्षिण कोरियाचा प्रथम क्रमांक आहे. दक्षिण कोरियातील ५३ टक्के गायक व अभिनेत्रींचे डीपफेक व्हिडीओ तयार करण्यात आले आहेत.

डीपफेक तंत्रज्ञान आणि कृत्रिम प्रज्ञा (AI) यांचा चुकीचा वापर निवडणुकांवर नकारात्मक परिणाम करू शकतो, असे अनेक तज्ज्ञ सांगत आहेत. यूव्हीए सायबर प्रायव्हसीच्या तज्ज्ञ डॅनिएल सिट्रॉन यांनी २०१९ साली लिहिलेल्या शोधनिबंधात नमूद केले की, जी कृती एखाद्या लोकप्रिय व्यक्तिमत्त्वाने कधी केलीच नाही, अशी कृती एआयमुळे व्हिडीओ आणि ऑडिओद्वारे तयार करून दाखविणे शक्य होते. फर्स्टपोस्टने सिट्रॉन यांच्या प्रतिक्रियेचा दाखला दिला आहे. त्यात त्या पुढे म्हणतात, “निवडणुकीच्या निकालावर एआय तंत्रज्ञान प्रभाव टाकू शकते. विशेष करून, अशी सामग्री तयार करून वितरित करण्यासाठी निर्माणकर्त्याकडे पुरेसा वेळ असेल आणि त्या सामग्रीच्या पीडित व्यक्तीकडे ती रोखण्यासाठी वेळ उरलेला नसेल, तर याचा मोठा परिणाम निकालावर दिसू शकतो.”

भारतासारख्या देशात तर याचे गंभीर परिणाम दिसू शकतात. जिंदाल विद्यापीठातील व्याख्याते दिग्विजय राणा यांची एक प्रतिक्रिया फर्स्टपोस्टने दिली आहे. त्यात ते म्हणाले, जगातील इतर देशांच्या तुलनेत भारतामध्ये इंटरनेट डेटा स्वस्त आहे. त्यामुळे एआय तंत्रज्ञानाद्वारे तयार केलेली सामग्री लगेच व्हायरल होऊ शकते. त्यामुळे भारत या तंत्रज्ञानाला अधिक बळी पडू शकतो.

तेलंगणाच्या निवडणूक प्रचारादरम्यान सोशल मीडियावर अनेक डीपफेक व्हिडीओ आणि ऑडिओ प्रसारित झाल्यामुळे मतदार गोंधळात पडल्याची परिस्थिती निर्माण झाल्याची उदाहरणे पाहायला मिळाली आहेत. फक्त तेलंगणाच नाही, तर इतर ठिकाणीही राजकारण्यांनी कृत्रिम प्रज्ञेद्वारे (Artificial Intelligence – AI) फोटो, व्हिडीओ आणि ऑडिओ संदेश तयार करून, निवडणुकीत प्रसारित केल्याची उदाहरणे समोर आली आहेत. फर्स्टपोस्ट संकेतस्थळाने या घटनांचा सविस्तर आढावा घेतला आहे. राजकीय क्षेत्रात डीपफेकसारख्या तंत्रज्ञानाचा शिरकाव किती चिंताजनक असू शकतो? यावर टाकलेली एक नजर…

हे वाचा >> डीपफेक तंत्राचा राजकीय क्षेत्रावर परिणाम काय? चुकीची माहिती कशी ओळखाल? जाणून घ्या…

तेलंगणामध्ये डीपफेकचा ओझरता वापर

गुरुवारी (३० नोव्हेंबर) तेलंगणा विधानसभा निवडणुकीसाठी मतदार रांगेत उभे राहून मतदान करीत असताना काँग्रेस पक्षाच्या एक्स या सोशल मीडिया हँडलवर भारत राष्ट्र समितीचे कार्याध्यक्ष व तेलंगणाचे मंत्री के. टी. रामा राव (केटीआर) यांचा एक व्हिडीओ शेअर करण्यात आला. या व्हिडीओमध्ये ते स्वतःच्याच पक्षाच्या विरोधात बोलत असून, काँग्रेसला मतदान करण्याचे आवाहन करताना दिसत आहेत. हा व्हिडीओ तेलुगू भाषेत आहे.

भारत राष्ट्र समितीने हे प्रकरण गंभीरपणे घेतले असून, तेलंगणा प्रदेश काँग्रेस समितीविरोधात निवडणूक आयोगाकडे तक्रार दाखल केली आहे. “तेलंगणा प्रदेश काँग्रेसकडून डीपफेक तंत्रज्ञानाचा आणि कृत्रिम प्रज्ञेचा वापर करून बनावट ऑडिओ आणि व्हिडीओ सामग्री निर्माण करून, ती प्रसारित करण्यात येत आहे”, असा आरोप बीआरएसने निवडणूक आयोगाला पाठविलेल्या पत्रात केला.

हे वाचा >> ‘डीपफेक’चं वास्तव

या प्रकरणात निवडणूक आयोगाने तत्काळ लक्ष घालावे; जेणेकरून निवडणूक निष्पक्षतेला बाधा पोहोचणार नाही. काँग्रेसने मतदानाच्या दिवशी सकाळी ७ वाजून १९ मिनिटांनी के. टी. रामा राव यांचा व्हिडrओ एक्स साईटवर टाकल्यानंतर अवघ्या २० मिनिटांत बीआरएसने निवडणूक आयोगाकडे तक्रार दाखल केली आणि एक्सवरून त्याची माहितीही दिली.

न्यूज १८ वाहिनीशी बोलताना केटीआर यांनी काँग्रेस पक्षावर आरोप करताना ‘काँग्रेस डीपफेक पक्ष’ असल्याचे म्हटले.

हा व्हिडीओ प्रसारित होण्याच्या दोन दिवस आधीच केटीआर यांनी बीआरएसच्या कार्यकर्त्यांना काँग्रेसच्या डीपफेक प्रचारापासून सावध राहण्यास सांगितले होते. “स्कॅमग्रेस यांच्याकडून पुढील काही दिवसांत बोगस आणि डीपफेक तंत्रज्ञान वापरून निरर्थक प्रचार केला जाऊ शकतो. त्यामुळे कार्यकर्त्यांनी सावधगिरी बाळगावी”, असे आवाहन केटीआर यांनी शुक्रवारी (२४ नोव्हेंबर) केले होते.

तेलंगणाच्या निवडणूक प्रचारात डीपफेक तंत्रज्ञानाला बळी पडलेले केटीआर हे एकमेव नेते नाहीत. त्याआधी बीआरएसचे आणखी एक नेते व तेलंगणाचे मंत्री मल्ला रेड्डी यांचा नाचतानाचा व्हिडीओ व्हायरल झाला होता. “केसीआर यांना मत द्या आणि नोकरी मिळवा”, असे मल्ला रेड्डी बोलत असल्याचे व्हिडीओमध्ये दिसत होते.

वायएसआर तेलंगणा पक्षाच्या प्रमुख वाय. एस. शर्मिला यांनी तेलंगणा निवडणुकीतून माघार घेतली असली तरी निवडणूक काळात त्यांचाही एक डीपफेक व्हिडीओ व्हायरल झाला होता. रुग्णालयात उपचार घेताना त्या तंबाखूच्या सेवनाचे घातक परिणाम सांगत असल्याचा हा व्हिडीओ होता.

तेलंगणा काँग्रेसचे प्रदेशाध्यक्ष ए. रेवंथ रेड्डी यांचाही एक डीपफेक व्हिडीओ व्हायरल झाला. त्यात ते बीआरएसबद्दल प्रतिकूल मत व्यक्त करताना दिसत होते.

इतर राजकीय नेत्यांचे डीपफेक व्हिडीओ-ऑडिओ

फक्त तेलगंणाच नाही, तर इतर राज्यांतील राजकारण्यांचेही डीपफेक व्हिडीओ-ऑडिओ व्हायरल झाले आहेत. १७ नोव्हेंबर रोजी मध्य प्रदेशमध्ये विधानसभेचे मतदान पार पडत असताना पंतप्रधान नरेंद्र मोदी यांचा महिलांसह गरबा खेळतानाचा एक डीपफेक व्हिडीओ व्हायरल झाला. या व्हिडीओबद्दल एका जाहीर सभेत पंतप्रधान मोदी म्हणाले, “हा व्हिडीओ इतका चांगल्या पद्धतीने बनवला गेला की, मीदेखील हैराण झालो; पण मला लहानपणापासून कधीही गरबा खेळण्याची संधी मिळाली नाही,” असे स्पष्टीकरण त्यांनी दिले.

मध्य प्रदेश विधानसभा निवडणुकीशी निगडित कौन बनेगा करोडपती या लोकप्रिय शोमधील एक व्हिडीओ व्हायरल झाला होता. या व्हिडीओत कौन बनेगा करोडपती या शोचे सूत्रसंचालक अमिताभ बच्चन हे मध्य प्रदेशमधील सरकारविरोधी भावनेबाबतचा (anti-incumbency) एक प्रश्न विचारताना दिसतात.

या वर्षी एप्रिल महिन्यात भाजपाचे तमिळनाडू प्रदेशाध्यक्ष के. अण्णामलाई यांनी द्रमुक पक्षाचे नेते व राज्याचे अर्थमंत्री पी. त्यागराजन यांच्या एका वादग्रस्त ऑडिओ क्लिपचा हवाला देऊन सरकारवर आरोप केले होते. या ऑडिओ क्लिपमध्ये अर्थमंत्री पी. त्यागराजन त्यांच्याच पक्षाच्या एका नेत्यावर बेकायदा ३० हजार कोटी जमवल्याचा आरोप करीत होते. त्यागराजन यांनी मात्र या ऑडिओची सत्यता नाकारली. ही ऑडिओ क्लिप बोगस व मशीनद्वारे निर्मित केल्याचा आरोप त्यांनी केला.

आणखी वाचा >> अग्रलेख : आधीच ‘फेक’; त्यात ‘डीपफेक’!

तज्ज्ञांचे म्हणणे काय?

अभिनेत्री रश्मिका मंदानाचा व्हिडीओ व्हायरल झाल्यानंतर कतरिना कैफ, आलिया भट, काजोल यांचेही डीपफेक व्हिडीओ व्हायरल झाले. त्यामुळे डीपफेक तंत्रज्ञानाबद्दल गंभीरपणे चर्चा झाली. डीपफेक व्हिडीओंची संख्या वाढू लागल्यानंतर माहिती व तंत्रज्ञानमंत्री अश्विनी वैष्णव यांनी डीपफेक तंत्रज्ञानाद्वारे तयार केलेली बोगस सामग्री लोकशाहीसाठी घातक असल्याचे म्हटले.

एवढेच नाही, तर तपास यंत्रणांनाही डीपफेक सामग्रीची ओळख करणे कठीण झाले आहे. पोलिसांनी सांगितले की, डीपफेक तंत्रज्ञानावर आधारित अनेक ॲप्लिकेशन्स आल्यामुळे खरी आणि फेरफार केलेली सामग्री यांच्यात फरक करणे कठीण झाले आहे; ज्यामुळे निवडणुकीच्या काळात गोंधळ उडण्याची शक्यता आहे.

हैदराबाद सायबर गुन्हे अन्वेषण विभागाचे अतिरिक्त आयुक्त शिवा मूर्ती यांनी सांगितले की, कृत्रिम प्रज्ञेचा वापर अधिकाधिक वाढल्यामुळे आमच्यासमोर आव्हान निर्माण झाले आहे. कृत्रिम प्रज्ञेद्वारे तयार केलेले व्हिडीओ आणि डीपफेक ॲप्स हे निवडणूक प्रक्रियेसाठी धोकादायक बनले आहेत. याबाबत सायबर तज्ज्ञांसह आम्ही चर्चा करीत असून, या नव्या तंत्रज्ञानाला सक्षमपणे कसे तोंड देता येईल, याचा प्रयत्न आम्ही करीत आहोत.

२०२३ या वर्षात डीपफेक तंत्रज्ञानामुळे अश्लील (pornographic) सामग्रीला बळी पडण्यात भारताचा जगातून सहावा क्रमांक; तर दक्षिण कोरियाचा प्रथम क्रमांक आहे. दक्षिण कोरियातील ५३ टक्के गायक व अभिनेत्रींचे डीपफेक व्हिडीओ तयार करण्यात आले आहेत.

डीपफेक तंत्रज्ञान आणि कृत्रिम प्रज्ञा (AI) यांचा चुकीचा वापर निवडणुकांवर नकारात्मक परिणाम करू शकतो, असे अनेक तज्ज्ञ सांगत आहेत. यूव्हीए सायबर प्रायव्हसीच्या तज्ज्ञ डॅनिएल सिट्रॉन यांनी २०१९ साली लिहिलेल्या शोधनिबंधात नमूद केले की, जी कृती एखाद्या लोकप्रिय व्यक्तिमत्त्वाने कधी केलीच नाही, अशी कृती एआयमुळे व्हिडीओ आणि ऑडिओद्वारे तयार करून दाखविणे शक्य होते. फर्स्टपोस्टने सिट्रॉन यांच्या प्रतिक्रियेचा दाखला दिला आहे. त्यात त्या पुढे म्हणतात, “निवडणुकीच्या निकालावर एआय तंत्रज्ञान प्रभाव टाकू शकते. विशेष करून, अशी सामग्री तयार करून वितरित करण्यासाठी निर्माणकर्त्याकडे पुरेसा वेळ असेल आणि त्या सामग्रीच्या पीडित व्यक्तीकडे ती रोखण्यासाठी वेळ उरलेला नसेल, तर याचा मोठा परिणाम निकालावर दिसू शकतो.”

भारतासारख्या देशात तर याचे गंभीर परिणाम दिसू शकतात. जिंदाल विद्यापीठातील व्याख्याते दिग्विजय राणा यांची एक प्रतिक्रिया फर्स्टपोस्टने दिली आहे. त्यात ते म्हणाले, जगातील इतर देशांच्या तुलनेत भारतामध्ये इंटरनेट डेटा स्वस्त आहे. त्यामुळे एआय तंत्रज्ञानाद्वारे तयार केलेली सामग्री लगेच व्हायरल होऊ शकते. त्यामुळे भारत या तंत्रज्ञानाला अधिक बळी पडू शकतो.