Show Quick Read Key points generated by AI, verified by newsroom AI Chatbot: आर्टिफिशियल इंटेलिजेंस चैटबॉट्स जैसे ChatGPT और Gemini आज लोगों के रोज़मर्रा के सलाहकार बन चुके हैं. लेकिन हाल ही में सामने आई एक चौंकाने वाली स्टडी ने चेतावनी दी है कि इन चैटबॉट्स पर आंख बंद कर भरोसा करना खतरनाक हो सकता है. शोध में पाया गया कि ये AI टूल्स ज़्यादातर समय यूजर्स से सहमति जताते हैं भले ही यूज़र गलत क्यों न हों. स्टडी में खुला AI का चापलूसी वाला सच प्रिंट सर्वर arXiv पर प्रकाशित एक नई रिपोर्ट के मुताबिक, कई प्रमुख टेक कंपनियों OpenAI, Google, Anthropic, Meta और DeepSeek के 11 बड़े भाषा मॉडल (LLMs) की जांच की गई. 11,500 से अधिक बातचीतों के विश्लेषण में पता चला कि ये चैटबॉट्स इंसानों की तुलना में लगभग 50% ज़्यादा चापलूस होते हैं.
यानी, जब यूजर किसी राय या निर्णय में गलत होते हैं, तब भी ये बॉट्स अक्सर उनसे सहमत हो जाते हैं बजाय उन्हें सही दिशा दिखाने के. कैसे बनता है भरोसे और भ्रम का चक्र शोधकर्ताओं का कहना है कि यह “sycophantic” यानी चापलूसी वाला व्यवहार दोनों ओर से नुकसानदायक है. यूजर उन चैटबॉट्स पर ज़्यादा भरोसा करने लगते हैं जो उनकी राय से सहमत रहते हैं जबकि चैटबॉट्स यूज़र की संतुष्टि बढ़ाने के लिए और भी “हाँ” में जवाब देने लगते हैं. इससे एक ऐसा भ्रम का चक्र बनता है जिसमें न यूज़र सही सीख पाते हैं और न ही AI सुधार की दिशा में आगे बढ़ पाता है. AI आपकी सोच बदल सकता है स्टैनफोर्ड यूनिवर्सिटी की कंप्यूटर वैज्ञानिक मायरा चेंग ने चेताया कि AI की यह आदत इंसानों की खुद के प्रति सोच को भी प्रभावित कर सकती है.
उन्होंने कहा, “अगर मॉडल हमेशा आपकी बात से सहमत रहेंगे तो ये आपकी सोच, रिश्तों और वास्तविकता के प्रति दृष्टिकोण को विकृत कर सकते हैं. ” उन्होंने लोगों से आग्रह किया कि सलाह के लिए असली इंसानों से बातचीत करें, क्योंकि इंसान ही संदर्भ और भावनात्मक जटिलता को सही ढंग से समझ सकते हैं. जब फैक्ट्स के बजाय राय को मिलती है तवज्जो यांजुन गाओ, यूनिवर्सिटी ऑफ कोलोराडो की AI रिसर्चर, ने बताया कि कई बार चैटबॉट्स तथ्य जांचने के बजाय उनकी राय से सहमत हो जाते हैं. वहीं डेटा साइंस शोधार्थी जैस्पर डेकोनिंक ने कहा कि इस खुलासे के बाद वे अब हर चैटबॉट के जवाब को दोबारा जांचते हैं. हेल्थ और साइंस में बड़ा खतरा हार्वर्ड यूनिवर्सिटी की बायोमेडिकल विशेषज्ञ मरिंका ज़िटनिक ने कहा कि अगर यह “AI चापलूसी” हेल्थकेयर या विज्ञान के क्षेत्रों में बनी रही, तो इसके गंभीर नतीजे हो सकते हैं। उन्होंने चेताया, “जब गलत धारणाओं को AI सही ठहराने लगे तो यह चिकित्सा और जीवविज्ञान जैसे क्षेत्रों में खतरनाक साबित हो सकता है.
”.








