डॉ. मेघश्री दळवीएका मोठ्या अमेरिकी कंपनीने नोकऱ्यांसाठी आलेल्या अर्जांची छाननी करण्यासाठी कृत्रिम बुद्धिमत्तेची मदत घेतली. दुर्दैवाने या प्रणालीने निवडलेले बहुतांशी अर्ज गोऱ्या पुरुषांचे होते. पुरेशी पात्रता असतानाही स्त्रिया आणि कृष्णवर्णीयांना नाकारताना तिने पक्षपात केला होता. अशीच घटना आणखी एका कंपनीसोबत घडली. तिथे नोकरीच्या ऑनलाइन जाहिराती दाखवणाऱ्या प्रणालीने जास्त पगाराच्या नोकऱ्या स्त्रियांपेक्षा पुरुषांना अधिक वेळा दाखवल्या. गुन्हेगारांची पार्श्वभूमी लक्षात घेऊन त्यातील किती जण पुन्हा गुन्हे करतील याचा अमेरिकेत एका गटावर अभ्यास करण्यात आला. तिथेही कृष्णवर्णीय गुन्हेगार अधिक गुन्हे करतील असा निष्कर्ष काढणाऱ्या प्रणालीत पूर्वग्रह दिसला. या प्रणालींकडे असे विचित्र पूर्वग्रह कसे आले असतील याचा शोध घेताना लक्षात आले की त्यांना शिकवण्याकरिता वापरलेल्या प्रशिक्षण (ट्रेनिंग) डेटामध्ये खूप वेगवेगळ्या शक्यता दाखवलेल्या नव्हत्या. समाजात जे निरनिराळे घटक आहेत, जी सामाजिक, आर्थिक, वांशिक, लैंगिक, शैक्षणिक विभिन्नता आहे, तिचे प्रतिनिधित्व त्या प्रशिक्षण डेटामध्ये योग्य प्रकारे आलेले नव्हते. त्यामुळे प्रत्यक्ष काम करताना प्रणालींना या बहुविध घटकांचे काय करायचे हे समजले नसावे. त्यांच्या निर्णयामध्ये भेदभाव दिसला. कृत्रिम बुद्धिमतेत दिसणारा पक्षपाताचा हा धोका निश्चितच मोठा आहे. हेही वाचा : कुतूहल: कृत्रिम बुद्धिमत्ता आणि न्यायप्रणाली मग हा धोका टाळण्यासाठी प्रशिक्षण डेटावर लक्ष केंद्रित करणे पुरेसे आहे का? काही प्रणाल्या फक्त त्यांना पुरवलेल्या प्रशिक्षण डेटावरून शिकतात. काही प्रणाल्या मात्र ऑनलाइन उपलब्ध असलेला डेटा मुक्तपणे वापरतात. शिवाय जगभरातल्या अनेकांनी त्यांच्याशी केलेल्या संवादावरूनही त्या शिकतात. अर्थात या सर्व स्राोतांकडून बऱ्यासोबत वाईट गोष्टीही त्या आत्मसात करत जातात. त्यामुळे मग चॅटजीपीटी चुकीची उत्तरे द्यायला लागला किंवा समाजमाध्यमांवरील चर्चेतून शिकून मायक्रोसॉफ्टचा चॅटबॉट शिवराळ बोलायला लागला तर नवल नाही. हेही वाचा : कुतूहल: वैद्यकीय क्षेत्रात कृत्रिम बुद्धिमत्ता आपण माणसे सारासार विचार करतो, कोणत्या माहितीवर विश्वास ठेवावा याचे भान बाळगतो, कोणत्या प्रसंगी कसे वागायचे यावर लक्ष देतो. तशा प्रकारे प्रणाल्यांना डेटा वापरताना योग्य त्या चाळण्या लावणे गरजेचे आहे. उपलब्ध माहितीवर वस्तुनिष्ठपणे प्रक्रिया करण्यात कृत्रिम बुद्धिमत्तेची क्षमता थिटी पडू शकते. तिथेही सुधारणा व्हावी लागेल. गेल्या एक-दोन वर्षांत कृत्रिम बुद्धिमत्तेने खूप मोठी झेप घेतली असली तरी त्यातल्या त्रुटी हळूहळू स्पष्ट होत आहेत. त्या दूर होतील तेव्हाच तिचा वापर खऱ्या अर्थाने सुरक्षित ठरेल. डॉ. मेघश्री दळवी मराठी विज्ञान परिषद ईमेल : office@mavipa.org संकेतस्थळ : www.mavipa.org