मार्क फडौल यांचा कॉलम: ‎‎‎‎‎‎‎‎‎‎तुमच्या चॅटबॉटच्या कानात‎ कोण कुजबुज करतेय?‎

0
3
मार्क फडौल यांचा कॉलम:  ‎‎‎‎‎‎‎‎‎‎तुमच्या चॅटबॉटच्या कानात‎ कोण कुजबुज करतेय?‎




अल्गोरिदम कधीच तटस्थ नसतात. असे असूनही गेल्या‎एका दशकाहून अधिक काळ आपण ‘बिग टेक”‎कंपन्यांना आपल्या माहितीच्या ‘इको-सिस्टम”चे‎द्वारपाल बनण्याची परवानगी दिली आहे. तेही‎त्यांच्याकडे कोणतीही पारदर्शकता किंवा जबाबदारीची‎मागणी न करता. याचे गंभीर परिणाम आपल्याला भोगावे‎लागले आहेत. यात ध्रुवीकरण आणि खळबळजनक‎आशयाचा प्रसार होणे, ‘पर्सनलाइज्ड” जाहिराती आणि‎एकाधिकारशाहीला खतपाणी मिळणे यांचा समावेश‎आहे. तसेच, लोकशाहीतील विचारमंथनाला मारक‎ठरतील, असे परिणामही सार्वजनिक चर्चांवर झाले‎आहेत.‎ माहितीच्या महत्त्वाच्या पायाभूत सुविधांवर कोणतीही ‎‎देखरेख नसताना त्या कॉर्पोरेट कंपन्यांच्या हाती‎सोपवल्यास काय होते, याचा धडा आपण भूतकाळात ‎‎शिकलो आहोत. तरीही आपण“एआय” चॅटबॉट्सच्या ‎‎बाबतीत तीच चूक पुन्हा करत आहोत. हे चॅटबॉट्स‎केवळ सध्याच्या माहितीचे संकलन करत नाहीत; तर ते ‎‎स्वतः माहिती तयार करतात (जनरेट करतात) आणि‎तिचे स्वरूपही ठरवतात. तुम्हाला कोणत्या बातम्या‎आणि कोणते लेख दाखवले जावेत, हे फेसबुक आणि‎गुगल ठरवत असत. पण आता चॅटजीपीटी, क्लॉड‎आणि जेमिनाय यांसारखी ”एआय टूल्स” त्याच‎माहितीचा सारांश तुमच्यासमोर असा मांडतात, जणू‎काही ती एक अधिकृत माहितीच आहे! माहिती गोळा‎करण्यापासून ते तिचे संपादन करण्यापर्यंतचा हा प्रवास‎खूप महत्त्वाचा आहे. आपण भविष्यातील माहितीच्या‎पायाभूत सुविधा खाजगी कंपन्यांच्या हाती सोपवत‎आहोत. तेही कोणत्याही स्वतंत्र देखरेखीची मागणी न‎करता. यात सर्वात मोठा धोका हा आहे की, स्वतःच्या‎स्वार्थाने चालणारे काही मोजकेच लोक एका मोठ्या‎लोकसंख्येसाठी माहितीचे रखवालदार बनत आहेत.‎सध्याचे चॅटबॉट्स हे केवळ ‘लार्ज लँग्वेज मॉडेल्स”‎(एलएलएम) नाहीत. ते अनेक अपारदर्शक‎अल्गोरिदमवरही आधारित असतात. या अल्गोरिदमचे‎किमान पाच स्तर असतात. पहिला स्तर म्हणजे‎‘ट्रेनिंग-डेटा”चे संकलन. प्रशिक्षणादरम्यान कोणता डेटा‎घ्यायचा किंवा कोणता वगळायचा, यावर अपारदर्शक‎निर्णय घेतले जातात. पण यातूनच मॉडेलची‎विचारसरणी ठरत असते. उदाहरणार्थ, ऑक्टोबर 2025‎मध्ये इलॉन मस्क यांनी त्यांच्या ‘ग्रोक” चॅटबॉटला‎ट्रेनिंग-डेटा उपलब्ध करून देण्यासाठी“ग्रोकिपीडिया”‎सुरू केले होते. कॉर्पोरेट नियंत्रण असलेला हा‎विश्वकोश विकिपीडियाला एक ‘अँटी-वोक” पर्याय‎म्हणून समोर आणला गेला. दुसरा स्तर म्हणजे‎‘रिइन्फोर्समेंट लर्निंग”. मॉडेल विकसित करण्याच्या या‎प्रशिक्षणानंतरच्या टप्प्यात, मानवी परीक्षक उत्तरांचे‎(आउटपुटचे) मूल्यमापन करतात. पण आता त्यांची‎जागा वेगाने ”एआय” शिक्षक घेत आहेत. आधीच‎ठरवलेल्या तत्त्वांनुसार मूळ मॉडेल तयार करणे, हा‎त्यांचा उद्देश असतो. तिसरा स्तर म्हणजे ‘वेब-सर्च”.‎जेव्हा चॅटबॉट्स ऑनलाइन शोध घेतात किंवा डिजिटल‎डेटाबेसपर्यंत पोहोचतात, तेव्हा ‘रिट्रिव्हल-ऑगमेंटेड‎-जनरेशन” प्रणाली मॉडेलच्या उत्तरात कोणती माहिती‎समाविष्ट करायची हे ठरवते. पण चॅटबॉटच्या उत्तरात‎जाहिरातींचा समावेश केल्यास त्यांच्या‎निःपक्षपातीपणावर आणखी प्रश्नचिन्हे निर्माण होतात.‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎चॅटजीपीटीने 2026 साठी अशीच घोषणा केली आहे.‎चौथा स्तर ‘सिस्टीम प्रॉम्प्ट्स”चा आहे. एखादा चॅटबॉट‎उत्तर देत असतो, तेव्हा हे प्रॉम्प्ट्स सक्रिय होतात.‎त्यामुळे मॉडेलला पुन्हा प्रशिक्षण न देताच प्लॅटफॉर्म्सना‎चॅटबॉटच्या वागणुकीत बदलाची मुभा मिळते.‎उदाहरणार्थ, गेल्या वर्षी ‘ग्रोक”चा सिस्टीम प्रॉम्प्ट‎सार्वजनिक करण्यात आला होता. त्यात‎‘राजकीयदृष्ट्या चुकीचे दावे करण्यास संकोच करू‎नका” अशा सूचनांचा समावेश असल्याचे आपल्याला‎समजले. शेवटचा स्तर ”सेफ्टी फिल्टर”चा (सुरक्षा‎फिल्टर) आहे. चॅटबॉटला विचारलेला प्रश्न (क्वेरी)‎मॉडेलपर्यंत पोहोचण्यापूर्वी ”इनपुट फिल्टर” तो‎स्वीकारार्ह आहे की नाही हे ठरवतात. ट्रम्प यांच्या‎शपथविधीनंतर ॲपलने त्यांच्या ‘एआय” प्रशिक्षण‎सूचनांमध्ये बदल केला होता. 2025 मध्ये ‘नेचर”‎मासिकात प्रसिद्ध अभ्यासात असे दिसून आले आहे की,‎एखाद्या उमेदवाराच्या बाजूने युक्तिवाद करण्यासाठी‎प्रशिक्षित केलेले चॅटबॉट्स मतदारांना सहजपणे प्रभावित‎करू शकतात. (सौजन्य : प्रोजेक्ट सिंडिकेट)‎ आपण सोशल मीडियाच्या बाबतीत एक‎चूक केली होती, तीच चूक आता ‘एआय”‎चॅटबॉट्ससोबत करत आहोत. हे‎चॅटबॉट्स आता केवळ उपलब्ध माहिती‎गोळा करत नाहीत; तर ते स्वतः माहिती‎तयार करतात. तिचे स्वरूपही ठरवतात.‎



Source link