डॉ. मेघश्री दळवी
एका मोठ्या अमेरिकी कंपनीने नोकऱ्यांसाठी आलेल्या अर्जांची छाननी करण्यासाठी कृत्रिम बुद्धिमत्तेची मदत घेतली. दुर्दैवाने या प्रणालीने निवडलेले बहुतांशी अर्ज गोऱ्या पुरुषांचे होते. पुरेशी पात्रता असतानाही स्त्रिया आणि कृष्णवर्णीयांना नाकारताना तिने पक्षपात केला होता. अशीच घटना आणखी एका कंपनीसोबत घडली. तिथे नोकरीच्या ऑनलाइन जाहिराती दाखवणाऱ्या प्रणालीने जास्त पगाराच्या नोकऱ्या स्त्रियांपेक्षा पुरुषांना अधिक वेळा दाखवल्या.

या बातमीसह सर्व प्रीमियम कंटेंट वाचण्यासाठी साइन-इन करा

गुन्हेगारांची पार्श्वभूमी लक्षात घेऊन त्यातील किती जण पुन्हा गुन्हे करतील याचा अमेरिकेत एका गटावर अभ्यास करण्यात आला. तिथेही कृष्णवर्णीय गुन्हेगार अधिक गुन्हे करतील असा निष्कर्ष काढणाऱ्या प्रणालीत पूर्वग्रह दिसला. या प्रणालींकडे असे विचित्र पूर्वग्रह कसे आले असतील याचा शोध घेताना लक्षात आले की त्यांना शिकवण्याकरिता वापरलेल्या प्रशिक्षण (ट्रेनिंग) डेटामध्ये खूप वेगवेगळ्या शक्यता दाखवलेल्या नव्हत्या. समाजात जे निरनिराळे घटक आहेत, जी सामाजिक, आर्थिक, वांशिक, लैंगिक, शैक्षणिक विभिन्नता आहे, तिचे प्रतिनिधित्व त्या प्रशिक्षण डेटामध्ये योग्य प्रकारे आलेले नव्हते. त्यामुळे प्रत्यक्ष काम करताना प्रणालींना या बहुविध घटकांचे काय करायचे हे समजले नसावे. त्यांच्या निर्णयामध्ये भेदभाव दिसला. कृत्रिम बुद्धिमतेत दिसणारा पक्षपाताचा हा धोका निश्चितच मोठा आहे.

हेही वाचा : कुतूहल: कृत्रिम बुद्धिमत्ता आणि न्यायप्रणाली

मग हा धोका टाळण्यासाठी प्रशिक्षण डेटावर लक्ष केंद्रित करणे पुरेसे आहे का? काही प्रणाल्या फक्त त्यांना पुरवलेल्या प्रशिक्षण डेटावरून शिकतात. काही प्रणाल्या मात्र ऑनलाइन उपलब्ध असलेला डेटा मुक्तपणे वापरतात. शिवाय जगभरातल्या अनेकांनी त्यांच्याशी केलेल्या संवादावरूनही त्या शिकतात. अर्थात या सर्व स्राोतांकडून बऱ्यासोबत वाईट गोष्टीही त्या आत्मसात करत जातात. त्यामुळे मग चॅटजीपीटी चुकीची उत्तरे द्यायला लागला किंवा समाजमाध्यमांवरील चर्चेतून शिकून मायक्रोसॉफ्टचा चॅटबॉट शिवराळ बोलायला लागला तर नवल नाही.

हेही वाचा : कुतूहल: वैद्यकीय क्षेत्रात कृत्रिम बुद्धिमत्ता

आपण माणसे सारासार विचार करतो, कोणत्या माहितीवर विश्वास ठेवावा याचे भान बाळगतो, कोणत्या प्रसंगी कसे वागायचे यावर लक्ष देतो. तशा प्रकारे प्रणाल्यांना डेटा वापरताना योग्य त्या चाळण्या लावणे गरजेचे आहे. उपलब्ध माहितीवर वस्तुनिष्ठपणे प्रक्रिया करण्यात कृत्रिम बुद्धिमत्तेची क्षमता थिटी पडू शकते. तिथेही सुधारणा व्हावी लागेल. गेल्या एक-दोन वर्षांत कृत्रिम बुद्धिमत्तेने खूप मोठी झेप घेतली असली तरी त्यातल्या त्रुटी हळूहळू स्पष्ट होत आहेत. त्या दूर होतील तेव्हाच तिचा वापर खऱ्या अर्थाने सुरक्षित ठरेल.

डॉ. मेघश्री दळवी

मराठी विज्ञान परिषद

ईमेल : office@mavipa.org

संकेतस्थळ : http://www.mavipa.org

मराठीतील सर्व नवनीत बातम्या वाचा. मराठी ताज्या बातम्या (Latest Marathi News) वाचण्यासाठी डाउनलोड करा लोकसत्ताचं Marathi News App.
Web Title: Artificial intelligence risk of bias css