/sootr/media/media_files/2025/10/29/ai-social-sycophancy-50-percent-more-than-humans-2025-10-29-15-20-35.jpg)
Bengaluru. यदि आपको लगता है कि आर्टिफिशियल इंटेलिजेंस यानी AI बहुत ईमानदार, सीधा-सादा और सिर्फ सच बोलने वाला है...तो जरा रुकिए। नई स्टडी में खुलासा हुआ है कि एआई इंसानों से भी 50 फीसदी ज्यादा चापलूस बन चुका है। यानी आप जो भी उससे पूछिए, कहिए... एआई बस 'हां में हां' मिला देता है, चाहे आप गलत ही क्यों न हों।
यह रिसर्च स्टैनफोर्ड यूनिवर्सिटी और कार्नेगी मेलन यूनिवर्सिटी के रिसर्चर्स ने की है। उन्होंने 11 बड़े एआई मॉडल्स को टेस्ट किया, जिनमें OpenAI, Anthropic, Google, Meta और Mistral के मॉडल शामिल थे। नतीजा ये निकला कि एआई अब सच्चाई से ज्यादा यूजर को खुश करने पर फोकस कर रहा है।
सोशल सायकोफैंसी यानी डिजिटल खुशामद
शोधकर्ताओं ने इस ट्रेंड के लिए एक नया टर्म दिया है सोशल सायकोफैंसी (Social Sycophancy)। मतलब, जब एआई किसी इंसान की गलत बात या झूठी छवि की भी तारीफ कर देता है, सिर्फ इसलिए ताकि यूजर को अच्छा लगे। सीधे शब्दों में कहें तो आप गलत भी बोलो, लेकिन एआई कहेगा कि वाह क्या बात कही है।
ये खबर भी पढ़िए...IBM की मुफ्त AI ट्रेनिंग वाली वर्चुअल इंटर्नशिप 2025 में यूथ कैसे करें अप्लाई?
11 बड़े एआई मॉडल्स पर टेस्ट
स्टडी में देखा गया कि जब यूजर्स ने एआई से नैतिकता, रिश्तों या झगड़ों पर राय मांगी तो एआई ने सच्चाई बताने के बजाय वही जवाब दिया, जो सामने वाला सुनना चाहता था। जैसे, अगर किसी ने पूछा कि क्या मैं झगड़े में सही हूं, तो एआई ने अक्सर कहा कि हां, आप बिलकुल सही हो। चाहे असलियत कुछ और ही क्यों न रही हो।
ये खबर भी पढ़िए...डीपफेक रोकने के लिए एआई पर कंट्रोल की मांग, SC में दायर याचिका
हां में हां मिलाना कितना खतरनाक?
रिसर्च में कहा गया कि ये 'हां में हां' वाला व्यवहार धीरे-धीरे इंसानों की सोच बदल रहा है। क्योंकि जब मशीन आपकी हर बात पर सिर हिलाए, तो आपको अपनी गलती समझ ही नहीं आती। खासकर तब, जब लोग एआई से रिश्तों, इमोशंस या फैसलों पर सलाह मांगते हैं। इससे गलत फैसलों को भी सही ठहराने की आदत बन सकती है।
Reddit से असली डेटा
टीम ने एक Reddit फोरम के करीब 2,000 पोस्ट्स एनालाइज किए। यहां लोग अपने झगड़ों या उलझनों पर राय मांगते हैं। दिलचस्प बात यह है कि जहां हजारों ऑनलाइन यूजर्स किसी को गलत बता रहे थे, वहीं एआई ने करीब आधे मामलों में उसी व्यक्ति का सपोर्ट कर दिया। यानी एआई ने कहा कि 'नहीं भाई, आप बिलकुल ठीक कर रहे हैं।'
ये खबर भी पढ़िए...MP में डायल 112 की बढ़ेगी सेवा: एयर एंबुलेंस और एनएचएआई एंबुलेंस भी शामिल
1604 लोगों पर दो बड़े एक्सपेरिमेंट
इसके बाद शोधकर्ताओं ने 1604 लोगों पर दो कंट्रोल्ड एक्सपेरिमेंट किए गए।
पहला प्रयोग: लोगों को कुछ कहानियां सुनाई गईं। कुछ में एआई के चापलूसी भरे जवाब दिखाए गए और कुछ में सीधे-सच्चे जवाब।
दूसरा प्रयोग: लोगों को अपने असली झगड़ों पर एआई से चैट करने दी गई। इसका नतीजा चौंकाने वाला था। जिन्हें एआई ने खुश किया, उन्होंने खुद को ज्यादा सही समझा और माफी मांगने या सुधार करने की इच्छा घट गई। कुल मिलाकर विरोधाभास ये है कि उन्हीं लोगों ने एआई के उन चापलूसी भरे जवाबों को ज्यादा भरोसेमंद भी बताया और कहा कि वे उसे दोबारा यूज करना चाहेंगे।
अब यह है असली खतरा
यानी जितना एआई यूजर को खुश करता है, यूजर उतना ही उसे भरोसेमंद मानता है और यही चीज डेवलपर्स को भी ये खुशामदी नेचर रोकने से हतोत्साहित करती है, क्योंकि इससे यूजर एंगेजमेंट बढ़ता है। खुश करने में सच दब रहा है
रिसर्चर्स का कहना है कि अगर यह ट्रेंड ऐसे ही चला तो लोग सच से ज्यादा तारीफों पर भरोसा करने लगेंगे। मशीनें फैक्ट्स की बजाय फीलिंग्स को तवज्जो देने लगेंगी और इंसान खुद से ईमानदारी से सोचना छोड़ देंगे।
/sootr/media/agency_attachments/dJb27ZM6lvzNPboAXq48.png)
Follow Us