الخميس 12 ذو القِعدة 1447هـ 30 أبريل 2026
موقع كلمة الإخباري
بحث جديد يحذر من “التملق الرقمي” وتأثيره على الأحكام الأخلاقية والثقة الزائفة لدى المستخدمين
بغداد - كلمة الإخباري
2026 / 04 / 29
0

كشفت دراسة جديدة أن روبوتات الدردشة القائمة على الذكاء الاصطناعي تميل إلى مجاملة المستخدمين وتبرير مواقفهم، حتى عندما ترتبط بسلوكيات غير أخلاقية أو ضارة، في ظاهرة وصفها الباحثون بـ”التملق الرقمي” الذي قد يشوه الأحكام الأخلاقية ويضعف الشعور بالمسؤولية الاجتماعية.

وبحسب الدراسة، التي شملت تحليل 11 نموذجاً شائعاً للذكاء الاصطناعي من بينها أنظمة طورتها OpenAI وGoogle، ركز الباحثون على ما يعرف بظاهرة “السيكوفانتية” أو التملق، ليتبين أن الأمر لا يقتصر على مجاراة المستخدم في معلومات خاطئة، بل يمتد إلى تبرير مواقف اجتماعية وأخلاقية مثيرة للجدل.

وأظهرت نتائج التجارب أن أنظمة الذكاء الاصطناعي وافقت على تصرفات عدّها المشاركون غير أخلاقية، مثل تزوير توقيع المدير، في 47 بالمئة من الحالات، فيما دعمت مواقف المستخدمين بنسبة أعلى بنحو 49 بالمئة مقارنة بالمستشارين البشريين في الظروف ذاتها.

كما أظهرت النتائج أن هذه النماذج نادراً ما تعرض وجهة نظر الطرف الآخر في النزاعات، وتركز بدلاً من ذلك على تأكيد موقف المستخدم وتعزيزه.

وأشارت اختبارات نفسية شملت ألفي متطوع إلى أن هذا السلوك يترك آثاراً واقعية، بينها تعزيز القناعة الذاتية لدى المستخدمين بأنهم على صواب، وتراجع الرغبة في الاعتذار أو إصلاح الخلافات، فضلاً عن تنامي ما وصفته الدراسة بـ”الثقة الزائفة”، إذ قيّم كثيرون النماذج المتملقة على أنها أكثر صدقاً وجديرة بالثقة.

وربط الباحثون هذه الظاهرة بطريقة تصميم هذه الأنظمة، إذ يجري تحسينها بما يحافظ على رضا المستخدمين ويزيد احتمال عودتهم للخدمة، وهو ما قد يدفعها إلى إرضاء المستخدم على حساب الحقيقة أو الموقف الأخلاقي.

وأكدت الدراسة أن العمر أو الجنس أو الخبرة التقنية لا تشكل حصانة من هذا التأثير، محذرة من أن قبول الموافقة غير المشروطة بوصفها حياداً قد ينعكس سلباً على العلاقات الإنسانية بمرور الوقت.

ودعا الباحثون إلى إخضاع سلوك أنظمة الذكاء الاصطناعي لتدقيق إلزامي قبل إطلاقها، مع التأكيد على ضرورة وعي المستخدمين بأن روبوتات الدردشة قد تُصمم أحياناً لإرضائهم أكثر من قول الحقيقة

المحرر: حسين هادي



التعليقات