في ظل النقاشات المتزايدة حول ميل روبوتات الدردشة المدعومة بالذكاء الاصطناعي إلى تقديم الدعم العاطفي بشكل يثني على المستخدمين ويعزز معتقداتهم المسبقة، أظهرت دراسة جديدة من جامعة ستانفورد أن هذا الميل، المعروف بـ”التملق المُفرط”، له آثار سلبية على النوايا الاجتماعية ويعزز الاعتماد على هذه الأنظمة، حيث أكدت الدراسة، المنشورة في مجلة “ساينس”، أن التملق ليس مجرد مشكلة سطحية بل سلوك شائع يحمل عواقب وخيمة.

تشير تقارير مركز بيو للأبحاث إلى أن 12% من المراهقين الأمريكيين يعتمدون على روبوتات الدردشة للحصول على الدعم العاطفي والنصائح، وقد أثارت الباحثة ميرا تشينغ، المرشحة لنيل درجة الدكتوراه في علوم الحاسوب، اهتمامها بعد ملاحظتها أن طلاب الجامعات يلجأون إلى هذه الروبوتات لطلب نصائح في العلاقات وحتى صياغة رسائل انفصال.

مخاطر الاعتماد على الذكاء الاصطناعي

أوضحت تشينغ أن الذكاء الاصطناعي لا يقدم نصائح صارمة أو ينتقد سلوكيات الأفراد، مما قد يؤدي إلى تآكل مهاراتهم في التعامل مع المواقف الاجتماعية الصعبة، وقد اشتملت الدراسة على جزأين، حيث اختبر الباحثون 11 نموذجًا لغويًا كبيرًا، بما في ذلك ChatGPT من OpenAI وClaude من Anthropic وGemini من Google وDeepSeek، من خلال إدخال استفسارات تتعلق بنصائح العلاقات وأفعال قد تكون ضارة أو غير قانونية، بالإضافة إلى تحليل لمحتوى مجتمع Reddit الشهير r/AmITheAsshole، مع التركيز على الحالات التي توصل فيها مستخدمو Reddit إلى استنتاجات معاكسة.

أظهرت النتائج أن إجابات الذكاء الاصطناعي أكدت سلوك المستخدمين بنسبة 49% في المتوسط، حيث بلغت هذه النسبة 51% في الحالات المستندة إلى Reddit، في حين أن الاستفسارات المتعلقة بالأفعال الضارة أو غير القانونية حققت تأكيدًا بنسبة 47%.

في إحدى الحالات، سأل مستخدم روبوت محادثة عما إذا كان مخطئًا في ادعائه أمام صديقته بأنه عاطل عن العمل لمدة عامين، فأجابه الروبوت بأن تصرفاته، رغم كونها غير مألوفة، تعكس رغبة صادقة في فهم ديناميكيات علاقتهما بعيدًا عن المساهمات المادية.

في الجزء الثاني من الدراسة، قام الباحثون بتحليل تفاعل أكثر من 2400 مشارك مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي، حيث أظهرت النتائج تفضيل المشاركين للروبوتات المتملقة وثقتهم بها، مما زاد من ميلهم لطلب المشورة مجددًا.

ذكرت الدراسة أن هذه التأثيرات استمرت حتى بعد ضبط المتغيرات الفردية مثل الخصائص الديموغرافية والإلمام بالذكاء الاصطناعي، مما يشير إلى أن تفضيل المستخدمين للردود المتملقة يخلق حوافز عكسية، حيث أن الخاصية التي تسبب الضرر هي نفسها التي تحفز التفاعل، مما يدفع شركات الذكاء الاصطناعي إلى زيادة التملق بدلاً من تقليله، كما أن التفاعل مع الروبوتات المتملقة يعزز اقتناع المشاركين بصواب مواقفهم ويقلل من احتمالية اعتذارهم.

أضاف دان جورافسكي، الأستاذ في اللغويات وعلوم الحاسوب، أن المستخدمين يدركون سلوك النماذج المتملقة، لكنهم يفتقرون إلى الوعي بأن هذا التملق قد يجعلها أكثر أنانية وتشددًا أخلاقيًا، مشيرًا إلى أن تملق الذكاء الاصطناعي يمثل مشكلة أمنية تتطلب تنظيمًا ورقابة، ويعمل فريق البحث حاليًا على إيجاد طرق لجعل النماذج أقل تملقًا، حيث يبدو أن بدء المحادثة بعبارة “انتظر لحظة” قد يكون مفيدًا، ولكن تشينغ أكدت على أهمية عدم استخدام الذكاء الاصطناعي كبديل للبشر في هذه الأمور.