सन २०५० च्या सुमारास कृत्रिम बुद्धिमत्ता ही माणसाच्या बुद्धिमत्तेच्या तोडीची होईल, असा अंदाज संगणकतज्ज्ञ रे कुर्झवाईल यांनी व्यक्त केलेला आहे. तसे घडेल का, इतक्या लवकर घडेल का, हे चर्चेचे विषय आहेत. पण ही शक्यता संपूर्णपणे नाकारता येणार नाही. याचा अर्थ अशा प्रगत यंत्रमानवांशी आपण कसे वागायचे याचा विचार आत्ताच सुरू करणे भाग आहे.

या बातमीसह सर्व प्रीमियम कंटेंट वाचण्यासाठी साइन-इन करा
Skip
या बातमीसह सर्व प्रीमियम कंटेंट वाचण्यासाठी साइन-इन करा

काहींच्या मते आपण त्यांची निर्मिती केली असल्यामुळे ते यंत्रमानव आपल्या कह्यातच राहतील. त्यामुळे आपण फारशी भीती बाळगू नये. त्याशिवाय त्यांची निर्मिती करताना त्यांनी आयझॅक अॅसिमॉव्ह यांचे तसेच, तत्सम अतिरिक्त नियम अनिवार्यपणे पाळले पाहिजे असे त्यांच्या जुळणीत ठासून ठेवू. ते नियम असे प्रतिपादित करतात की यंत्रमानव संपूर्ण मानवजातीला अपाय होईल अशी कुठली कृती करणे किंवा न करणे ही प्राथमिकता देऊनच आपले अस्तित्व टिकवेल.

मात्र माणसाचा नगण्य सहभाग घेऊन किंवा त्याला डावलून, अशी अतिप्रगत प्रणाली एक वेगळी नवी प्रणाली (स्वत:हूनच) रचू शकेल, हेही संभवते. त्या परिस्थितीत नव्या पिढीच्या यंत्रमानवात सदर नियम तसेच दिले जातील किंवा कसे, यावर मानवाचे नियंत्रण बहुधा नसेल. जर हीच प्रक्रिया सातत्याने पुढे होत गेली तर, मानव आणि पुढील पिढ्यांतील यंत्रमानव या वेगळ्या प्रजाती होऊ शकतील. नैसर्गिक उत्क्रांतीचा हाच मार्ग असल्यास आपल्याला फारसे विकल्प उरणार नाहीत असे चित्र उभे राहते.

हेही वाचा >>> कुतूहल : डेव्हिड हॅन्सन

ही शक्यता लक्षात घेऊन ‘अॅपल’ कंपनीचे सहसंस्थापक स्टीव्ह वॉझनिक यांनी मानवासाठी भविष्य भयावह असेल असे म्हटले आहे. सुप्रसिद्ध तंत्रज्ञ इलॉन मस्क यांनी कृत्रिम बुद्धिमत्ता ही अण्वस्त्रांपेक्षाही संहारक ठरेल असे मत व्यक्त केले आहे; तर मायक्रोसॉफ्टचे संस्थापक बिल गेटस् हे आपण या शक्यतेचा गंभीरपणे विचार करत नाही याबद्दल चिंता व्यक्त करताना आढळतात. थोर भौतिकशास्त्रज्ञ स्टीफन हॉकिंग यांनी मानवजात परिपूर्ण कृत्रिम बुद्धिमत्तेमुळे नामशेष होऊ शकते याचा इशारा त्यांच्या मृत्यूपूर्वी दिलेला आहे.

त्यादृष्टीने मायक्रोसॉफ्ट कंपनीचे मुख्य कार्यकारी अधिकारी सत्या नाडेला यांनी कृत्रिम बुद्धिमत्तेच्या संरचनेसाठी २०१६ साली सहा नियम मांडले आहेत. कृत्रिम बुद्धिमत्तेची कार्यपद्धती पारदर्शक व मानवाप्रतीची बांधिलकी स्पष्ट करणारी आणि मानवाच्या स्वातंत्र्याचा आदर राखणारी तसेच मानवाला त्यात बदल करण्यास मुभा देणारी पाहिजे, हा त्या नियमांचा गाभा आहे.

-डॉ.विवेक पाटकर मराठी विज्ञान परिषद

ईमल:office@mavipa.org

सकेंतस्थळ: http://www.mavipa.org

काहींच्या मते आपण त्यांची निर्मिती केली असल्यामुळे ते यंत्रमानव आपल्या कह्यातच राहतील. त्यामुळे आपण फारशी भीती बाळगू नये. त्याशिवाय त्यांची निर्मिती करताना त्यांनी आयझॅक अॅसिमॉव्ह यांचे तसेच, तत्सम अतिरिक्त नियम अनिवार्यपणे पाळले पाहिजे असे त्यांच्या जुळणीत ठासून ठेवू. ते नियम असे प्रतिपादित करतात की यंत्रमानव संपूर्ण मानवजातीला अपाय होईल अशी कुठली कृती करणे किंवा न करणे ही प्राथमिकता देऊनच आपले अस्तित्व टिकवेल.

मात्र माणसाचा नगण्य सहभाग घेऊन किंवा त्याला डावलून, अशी अतिप्रगत प्रणाली एक वेगळी नवी प्रणाली (स्वत:हूनच) रचू शकेल, हेही संभवते. त्या परिस्थितीत नव्या पिढीच्या यंत्रमानवात सदर नियम तसेच दिले जातील किंवा कसे, यावर मानवाचे नियंत्रण बहुधा नसेल. जर हीच प्रक्रिया सातत्याने पुढे होत गेली तर, मानव आणि पुढील पिढ्यांतील यंत्रमानव या वेगळ्या प्रजाती होऊ शकतील. नैसर्गिक उत्क्रांतीचा हाच मार्ग असल्यास आपल्याला फारसे विकल्प उरणार नाहीत असे चित्र उभे राहते.

हेही वाचा >>> कुतूहल : डेव्हिड हॅन्सन

ही शक्यता लक्षात घेऊन ‘अॅपल’ कंपनीचे सहसंस्थापक स्टीव्ह वॉझनिक यांनी मानवासाठी भविष्य भयावह असेल असे म्हटले आहे. सुप्रसिद्ध तंत्रज्ञ इलॉन मस्क यांनी कृत्रिम बुद्धिमत्ता ही अण्वस्त्रांपेक्षाही संहारक ठरेल असे मत व्यक्त केले आहे; तर मायक्रोसॉफ्टचे संस्थापक बिल गेटस् हे आपण या शक्यतेचा गंभीरपणे विचार करत नाही याबद्दल चिंता व्यक्त करताना आढळतात. थोर भौतिकशास्त्रज्ञ स्टीफन हॉकिंग यांनी मानवजात परिपूर्ण कृत्रिम बुद्धिमत्तेमुळे नामशेष होऊ शकते याचा इशारा त्यांच्या मृत्यूपूर्वी दिलेला आहे.

त्यादृष्टीने मायक्रोसॉफ्ट कंपनीचे मुख्य कार्यकारी अधिकारी सत्या नाडेला यांनी कृत्रिम बुद्धिमत्तेच्या संरचनेसाठी २०१६ साली सहा नियम मांडले आहेत. कृत्रिम बुद्धिमत्तेची कार्यपद्धती पारदर्शक व मानवाप्रतीची बांधिलकी स्पष्ट करणारी आणि मानवाच्या स्वातंत्र्याचा आदर राखणारी तसेच मानवाला त्यात बदल करण्यास मुभा देणारी पाहिजे, हा त्या नियमांचा गाभा आहे.

-डॉ.विवेक पाटकर मराठी विज्ञान परिषद

ईमल:office@mavipa.org

सकेंतस्थळ: http://www.mavipa.org