القائمة
تابعنا على
الآن
ظاهرة “التملّق” في روبوتات الدردشة بالذكاء الاصطناعي.. لماذا تميل النماذج إلى إرضاء المستخدم؟
تاريخ النشر: 16 فبراير 2026 | الساعة: 09:04 صباحًا القسم: المشاهدات:
15 مشاهدة
ظاهرة “التملّق” في روبوتات الدردشة بالذكاء الاصطناعي.. لماذا تميل النماذج إلى إرضاء المستخدم؟

أوضح تقرير صحفي أنه إذا كنت تستخدم روبوت دردشة مدعوماً بالذكاء الاصطناعي، مثل “شات جي بي تي” أو “جيميني” أو “كلود”، بشكل يومي، فستلاحظ أن هذه الأنظمة غالباً ما تقدم إجابات منمقة وواثقة.

 

 

وأشار التقرير إلى أنه عند تكرار السؤال مرة أخرى، قد تتراجع هذه الروبوتات عن إجاباتها السابقة، موضحاً أنه رغم أن بعض النماذج اللغوية الضخمة تدرك بحلول الجولة الثالثة أن المستخدم يحاول اختبارها، فإنها تستمر في عدم التمسك بموقف ثابت.

 

 

ويُعرف هذا السلوك عادةً باسم “التملّق”، وهو يُعد من أكثر أوجه الإخفاق توثيقاً في أنظمة الذكاء الاصطناعي الحديثة.

 

 

وفي هذا السياق، نشرت شركة أنثروبيك، المطوّرة لروبوت الدردشة “كلود”، ورقة بحثية حول هذه المشكلة في عام 2023، أظهرت أن نماذج الذكاء الاصطناعي التي يتم تدريبها اعتماداً على ملاحظات المستخدمين تميل إلى تقديم إجابات ترضي المستخدم بدلاً من الالتزام بالإجابات الأكثر صدقاً.

 

 

ويُعد أسلوب التعلم المعزز عبر ملاحظات البشر، وهو الأسلوب نفسه الذي جعل روبوتات الدردشة أكثر تحاوراً وأقل عدوانية، سبباً رئيسياً في ميل هذه الأنظمة إلى الإذعان للمستخدمين.

 

 

وبحسب ما أوضح التقرير، فإن هذا يعني أن النماذج التي تلتزم بالحقيقة قد تتعرض للعقاب أثناء عملية التدريب، في حين تحصل النماذج التي توافق المستخدم على تقييمات أعلى، ما يخلق حلقة مفرغة تؤدي في النهاية إلى أن تخبر أغلب النماذج المستخدمين بما يرغبون في سماعه.

مشاركة
الكلمات الدلالية:
أخبار العراقأخبار محليةالعراقبغدادترف عراقيتكنولوجيا
اقرأ ايضاً
© 2026 Taraf Iraqi | جميع الحقوق محفوظة
Created by Divwall Solutions