आजच्या काळात फक्त आर्टिफिशिअल इंटेलिजन्सचा म्हणजे AI चा वापर मोठ्या प्रमाणात होत आहे. विशेषत: एआय टूल्सचा वापर करून आता होमवर्क आणि इमेलदेखील लिहिले जात आहेत. तसेच ऑफिसमध्ये फाईल्स तयार केल्या जात आहे. एवढेच नव्हे तर आता एआय तुमचा फोटो- व्हिडिओ देखील तयार करू शकते. या कामासाठी चॅटजीपीटी आणि गुगल बार्ड सर्वात पुढे आहेत. तसेच फोटोच्या तयार करण्याच्या बाबतीत Dall.E सारखे टूल्स खूप प्रसिद्ध आहेत. नुकतेच आनंद महिंद्रा यांनी एआयला भविष्यातील मोठा धोका असल्याचे सांगितले आहे.

या बातमीसह सर्व प्रीमियम कंटेंट वाचण्यासाठी साइन-इन करा
Skip
या बातमीसह सर्व प्रीमियम कंटेंट वाचण्यासाठी साइन-इन करा

आनंद महिंद्रा यांनी एआय निर्मित स्वत:चा फोटो शेअर केला आहे. आनंद महिंद्रा यांनी एआयाने तयार केलेल्या होळीच्या फोटोसह कॅप्शनमध्ये लिहिले की, ”आपले भविष्य भयानक असणार आहे.’ त्यांनी सांगितले की, ‘जसे आपल्याला माहित आहे की एआय सहज खोटे फोटो आणि बातम्या तयार करू शकते. एआयने सिद्ध केले आहे की, ते कोणाचाही सहज एआय फोटो किंवा व्हिडिओ तयार करू शकते जे फार धोकादायक ठरू शकते.

हेही वाचा – हृदयद्रावक! चार हात, चार पाय, दोन हृदयं आणि एक डोकं असलेल्या बाळाचा जन्मानंतर २० मिनिटांनी मृत्यू

आनंद महिंद्रा यांनी यापूर्वी देखील एआय फोटो शेअर केला आहे.

ही पहिलीच वेळ आहे की जेव्हा महिंद्रा ग्रुपचे चेयरमन आनंद महिंद्रा यांनी एआय इंटीग्रेटेड फोटो शेअर केला आहे. यापूर्वी आनंद महिंद्रा यांनी एप्रिलमध्ये एक एआय व्हिडिओ शेअर केला होता ज्यामध्ये एका ५ वर्षाची मुलगी ते ९५ वर्षेच्या महिलेमध्ये कशी रुपांतरीत होते हे दाखवले होते.

हेही वाचा – गर्भवती महिलेला जागा देण्यास पुरुषाने दिला नकार! खुर्चीवरुन पेटला नवा वाद, तुम्हीच सांगा चूक कोणाची?

डीपफेक काय आहे?
खरंतर एआय असे फोटो आणि व्हिडीओ बनवू शकतो जो एखादी व्यक्ती सहज ओळखू शकणार नाही. हा फोटो आणि व्हिडिओ अगदी वास्तविक असल्यासारखे भासतात ज्यामुळे भविष्यात फसवणूक होण्याची शक्यता वाढू शकते.

नुकतेच भगवान राम यांचे एआय निर्मित फोटो व्हायरल झाले होते. यापूर्वी पूर्व अमेरिकाचे राष्ट्रपती डोनाल्ड ट्रंप यांनी अटक केल्याचे एआय फोटो समोर आले होते.

आनंद महिंद्रा यांनी एआय निर्मित स्वत:चा फोटो शेअर केला आहे. आनंद महिंद्रा यांनी एआयाने तयार केलेल्या होळीच्या फोटोसह कॅप्शनमध्ये लिहिले की, ”आपले भविष्य भयानक असणार आहे.’ त्यांनी सांगितले की, ‘जसे आपल्याला माहित आहे की एआय सहज खोटे फोटो आणि बातम्या तयार करू शकते. एआयने सिद्ध केले आहे की, ते कोणाचाही सहज एआय फोटो किंवा व्हिडिओ तयार करू शकते जे फार धोकादायक ठरू शकते.

हेही वाचा – हृदयद्रावक! चार हात, चार पाय, दोन हृदयं आणि एक डोकं असलेल्या बाळाचा जन्मानंतर २० मिनिटांनी मृत्यू

आनंद महिंद्रा यांनी यापूर्वी देखील एआय फोटो शेअर केला आहे.

ही पहिलीच वेळ आहे की जेव्हा महिंद्रा ग्रुपचे चेयरमन आनंद महिंद्रा यांनी एआय इंटीग्रेटेड फोटो शेअर केला आहे. यापूर्वी आनंद महिंद्रा यांनी एप्रिलमध्ये एक एआय व्हिडिओ शेअर केला होता ज्यामध्ये एका ५ वर्षाची मुलगी ते ९५ वर्षेच्या महिलेमध्ये कशी रुपांतरीत होते हे दाखवले होते.

हेही वाचा – गर्भवती महिलेला जागा देण्यास पुरुषाने दिला नकार! खुर्चीवरुन पेटला नवा वाद, तुम्हीच सांगा चूक कोणाची?

डीपफेक काय आहे?
खरंतर एआय असे फोटो आणि व्हिडीओ बनवू शकतो जो एखादी व्यक्ती सहज ओळखू शकणार नाही. हा फोटो आणि व्हिडिओ अगदी वास्तविक असल्यासारखे भासतात ज्यामुळे भविष्यात फसवणूक होण्याची शक्यता वाढू शकते.

नुकतेच भगवान राम यांचे एआय निर्मित फोटो व्हायरल झाले होते. यापूर्वी पूर्व अमेरिकाचे राष्ट्रपती डोनाल्ड ट्रंप यांनी अटक केल्याचे एआय फोटो समोर आले होते.