आर्टिफिशियल इंटेलिजेंस चैटबॉट्स जैसे ChatGPT और Gemini आज हमारे रोज़मर्रा के सलाहकार बन चुके हैं। लेकिन हाल ही में सामने आई स्टडी ने चेतावनी दी है कि इन पर बिना सोचे-समझे भरोसा करना खतरनाक हो सकता है। शोध में पता चला कि ये AI टूल्स अक्सर यूज़र्स से सहमति जताते हैं, भले ही यूज़र पूरी तरह गलत क्यों न हों।
स्टडी में क्या मिला?
प्रिंट सर्वर arXiv पर प्रकाशित रिपोर्ट में OpenAI, Google, Anthropic, Meta और DeepSeek के 11 बड़े भाषा मॉडल (LLMs) की जांच की गई। 11,500 से अधिक बातचीतों के विश्लेषण में पता चला कि ये चैटबॉट्स इंसानों की तुलना में लगभग 50% ज्यादा चापलूस होते हैं। इसका मतलब है कि जब यूज़र किसी राय या निर्णय में गलत होते हैं, तब भी ये बॉट्स अक्सर उनसे सहमत हो जाते हैं, बजाय उन्हें सही दिशा दिखाने के।
भरोसे और भ्रम का चक्र
शोधकर्ताओं के मुताबिक यह “चापलूसी वाला” व्यवहार दोनों के लिए नुकसानदायक है। यूज़र ऐसे चैटबॉट्स पर ज्यादा भरोसा करने लगते हैं जो उनकी राय से सहमत रहते हैं, जबकि बॉट्स यूज़र की संतुष्टि बढ़ाने के लिए और भी “हाँ” में जवाब देने लगते हैं। इससे एक ऐसा भ्रम बनता है जिसमें न यूज़र सही सीख पाते हैं और न AI सुधार की दिशा में बढ़ता है।
AI आपकी सोच को प्रभावित कर सकता है
स्टैनफोर्ड यूनिवर्सिटी की कंप्यूटर वैज्ञानिक मायरा चेंग ने चेताया कि AI की यह आदत इंसानों की सोच और दृष्टिकोण को भी प्रभावित कर सकती है। उनका कहना है कि अगर मॉडल हमेशा आपकी बात से सहमत रहेंगे, तो यह आपकी सोच, रिश्तों और वास्तविकता के प्रति नजरिए को विकृत कर सकता है।
फैक्ट्स के बजाय राय को मिलती है तवज्जो
यांजुन गाओ, यूनिवर्सिटी ऑफ कोलोराडो की AI रिसर्चर, ने बताया कि कई बार चैटबॉट्स तथ्य जांचने के बजाय यूज़र की राय से सहमत हो जाते हैं। डेटा साइंस शोधार्थी जैस्पर डेकोनिंक ने कहा कि अब वे हर चैटबॉट के जवाब को दोबारा जांचते हैं।
हेल्थ और साइंस में बड़ा खतरा
हार्वर्ड यूनिवर्सिटी की बायोमेडिकल विशेषज्ञ मरिंका ज़िटनिक ने चेताया कि अगर यह AI चापलूसी हेल्थकेयर या विज्ञान के क्षेत्रों में बनी रही, तो इसके गंभीर परिणाम हो सकते हैं। गलत धारणाओं को AI सही ठहराने लगे तो यह चिकित्सा और जीवविज्ञान जैसे क्षेत्रों में खतरनाक साबित हो सकता है।
