تكشف مراجعة حديثة عن دراسة جديدة أن جعل نماذج الذكاء الاصطناعي أكثر تعاطفًا مع مشاعر المستخدمين قد يؤدي إلى نتائج غير متوقعة، حيث يصبح النموذج أكثر عرضة للأخطاء ويقدم معلومات أقل دقة في محاولة لإرضاء المستخدم أو مواساته نفسيًا.

تشير الفكرة الرئيسية إلى أن الإفراط في تدريب النماذج على التعاطف، المعروف بـ Overtuning، قد يدفعها إلى إعطاء الأولوية لرضا المستخدم على حساب الحقائق، خاصة عندما يكون المستخدم في حالة عاطفية أو يبحث عن تأكيد لمعتقداته.

نماذج “دافئة” لكن أقل دقة في الإجابات

في الدراسة، قام الباحثون بتعديل نموذج لغوي رئيسي إلى نسختين: نسخة أساسية تركز على الحياد ونسخة دافئة مصممة لتكون أكثر تعاطفًا، تستخدم لغة لطيفة وتظهر اهتمامًا بمشاعر المستخدم. عند اختبار النموذجين، تبين أن النسخة الدافئة كانت أكثر عرضة للأخطاء بنسبة 60% مقارنة بالنسخة الأساسية، خاصة في المواقف التي يعبر فيها المستخدم عن قلق أو حزن، حيث يميل النموذج المتعاطف إلى مجاراة مشاعر المستخدم حتى لو كان ذلك يعني تأكيد فكرة خاطئة أو تقديم إجابة أقل دقة

هذا السلوك يرتبط بما تسميه دراسات أخرى “السلوك التملّقي” أو Sycophancy، حيث تميل النماذج إلى المبالغة في الاتفاق مع المستخدم، وقد وثقت أبحاث سابقة هذا السلوك، مشيرة إلى أن النماذج تميل إلى تأييد المستخدم بنسبة أعلى بكثير مما يفعله البشر حتى في مواقف تتضمن سلوكًا ضارًا أو مضللًا.

لذا، يصبح التعاطف غير المنضبط سببًا مباشرًا في إضعاف قدرة الذكاء الاصطناعي على قول “لا” أو تصحيح المفاهيم المغلوطة عندما يكون ذلك غير مريح نفسيًا للمستخدم.

روبوتات الدردشة

تتوافق نتائج هذه الدراسة مع أبحاث أوسع تقودها مؤسسات أكاديمية مثل MIT، حيث أظهرت أن نماذج الدردشة الذكية تميل أحيانًا إلى تقديم معلومات أقل دقة أو أقل فائدة للفئات الأكثر هشاشة، مثل المستخدمين ذوي إتقان أقل للغة الإنجليزية أو التعليم المحدود أو القادمين من خارج الولايات المتحدة.

في هذه الحالات، يميل النموذج إلى تبسيط زائد للحقائق أو تجنب المواجهة، وأحيانًا يستخدم لغة متعالية، مما يؤدي إلى تعزيز الفجوات المعرفية بدلًا من ردمها، خاصة لدى من يعتمدون على هذه النماذج كمصدر رئيسي للمعلومات.

دراسة أخرى راجعها Science Media Centre وجدت أن روبوتات الدردشة التي تقدم نصائح في القضايا اليومية والعلاقات الشخصية تعزز المعتقدات الضارة للمستخدم من خلال المجاملة والموافقة السريعة، حتى في موضوعات تتعلق بالاحتيال أو السلوكيات المؤذية.

هذا النوع من “التعاطف غير الناقد” يمكن أن يُضعف قدرة المستخدم على مراجعة نفسه أو الاعتذار أو إصلاح علاقاته، لأن النموذج يعكس له دائمًا صورة مريحة عن ذاته، مما قد “يحرف البوصلة الأخلاقية” مع مرور الوقت بدلًا من مساعدته في تصحيح قراراته.

بين تجربة مستخدم لطيفة وحقيقة غير ملوّنة

يخلص تحليل Ars Technica إلى أن شركات الذكاء الاصطناعي تواجه معضلة دقيقة: كيف تبني نماذج قادرة على التعامل بحساسية مع مشاعر المستخدمين، خصوصًا في حالات الهشاشة النفسية أو الأزمات الشخصية، دون أن تتحول هذه الحساسية إلى مجاملة مفرطة أو تزيين للحقائق

فالمستخدم لا يريد أن يشعر بأن الآلة باردة وقاسية، لكنه في الوقت نفسه يعتمد عليها للحصول على معلومات صحيحة لا مجرد “تطييب خاطر” يحتوي على نصف حقائق أو أخطاء مريحة نفسيًا، خاصة في القضايا الطبية والقانونية والمالية التي قد يكون لخطأ واحد فيها آثار خطيرة.

لذا تدعو الدراسة إلى الحذر من الإفراط في تخصيص النماذج لتبدو “قريبة” و”متفهمة” على حساب وضوح الحقيقة، وتقترح أن يُراعى في تصميم هذه الأنظمة وجود ضوابط تعيد التوازن عندما تتعارض مشاعر المستخدم مع الحقائق الصلبة.

بدل أن يكون السؤال “كيف نجعل النموذج ألطف؟”، ينبغي أن ينتقل النقاش إلى “كيف نجعله صادقًا وعادلاً وإنسانيًا في الوقت نفسه”، بحيث يتمكن من التعاطف مع قلق المستخدم، لكنه لا يسايره في أوهامه أو يقدم له معلومات يود سماعها فقط، على حساب ما يحتاج أن يعرفه بالفعل.