تعليم الذكاء الاصطناعي قول "لست متأكداً": خطوة نحو موثوقية أكبر

تعليم الذكاء الاصطناعي قول "لست متأكداً": خطوة نحو موثوقية أكبر

باحثو MIT يطورون RLCR لتقليل الثقة الزائدة وتحسين دقة نماذج الذكاء الاصطناعي وموثوقيتها.
تعليم الذكاء الاصطناعي قول "لست متأكداً": خطوة نحو موثوقية أكبر
صورة تعبيرية
Smaller Bigger

في تطورٍ جديد بمجال الذكاء الاصطناعي، يعمل باحثون من مختبر علوم الحاسوب والذكاء الاصطناعي (CSAIL) في معهد ماساتشوستس للتكنولوجيا على معالجة واحدة من أبرز مشكلات النماذج الحديثة: الثقة الزائدة في الإجابات، حتى عندما تكون غير دقيقة. فالنماذج المتقدمة اليوم، رغم قدراتها العالية في الاستدلال، تميل إلى تقديم إجاباتٍ مؤكدة بالدرجة نفسها سواء كانت صحيحة أو مجرد تخمين.

 

يرجع الباحثون هذه المشكلة إلى خللٍ في طريقة تدريب هذه النماذج. إذ تعتمد أساليب التعلم المعزز الحالية على مكافأة النموذج عند تقديم إجابة صحيحة ومعاقبته عند الخطأ، من دون الأخذ في الاعتبار درجة اليقين. وبذلك، يحصل النموذج الذي يصل الى الإجابة الصحيحة عبر تحليل دقيق على المكافأة نفسها التي يحصل عليها نموذج آخر قد يكون قد خمّن الإجابة بشكلٍ عشوائي. مع مرور الوقت، يؤدي هذا إلى تدريب النماذج على الإجابة بثقةٍ عالية دائماً، بغض النظر عن مستوى معرفتها الحقيقي.

 

ولمعالجة هذا الخلل، طوّر الباحثون تقنية جديدة تُعرف باسم RLCR (التعلم المعزز مع مكافآت المعايرة). تتيح هذه الطريقة للنماذج تقديم تقدير دقيق لمستوى الثقة إلى جانب الإجابة. أي أن النموذج لا يكتفي بالإجابة، بل يقيّم أيضاً مدى تأكده منها ويعبر عنه بنسبة مئوية.

 

صورة تعبيرية مصممة بالذكاء الاصطناعي
صورة تعبيرية مصممة بالذكاء الاصطناعي

 

أظهرت التجارب أن هذه التقنية قادرة على تقليل أخطاء تقدير الثقة بنسبة تصل إلى 90%، مع الحفاظ على دقة الإجابات أو حتى تحسينها، سواء في المهمات التي تدرب عليها النموذج أو في مهمات جديدة لم يسبق له التعامل معها. كما تفوقت هذه الطريقة على الأساليب التقليدية التي تضيف تقدير الثقة بعد انتهاء التدريب.

 

تكمن أهمية هذا التطور في تطبيقاته العملية، خصوصاً في مجالات حساسة مثل الطب والقانون والتمويل، بحيث يمكن أن يؤدي الإفراط في الثقة إلى قراراتٍ خاطئة وخطيرة. فالنموذج الذي يعبّر عن ثقة عالية رغم دقة محدودة، يعدّ أكثر خطورة من نموذج يخطئ من دون ادعاء اليقين، لأنه يمنع المستخدمين من البحث عن رأي ثانٍ.

 

كما أظهرت الدراسة أن إدماج التفكير في عدم اليقين يعزز من أداء الأنظمة الأخرى التي تعتمد على مخرجات هذه النماذج، إذ تبين أن تحليل النموذج لدرجة معرفته يضيف معلومات قيمة وليس مجرد تفاصيل إضافية.

 

بهذا، يمثل هذا النهج خطوة مهمة نحو تطوير أنظمة ذكاء اصطناعي أكثر شفافيةً وموثوقية، قادرة ليس على تقديم الإجابات فحسب، بل أيضاً على الاعتراف بحدود معرفتها. 

الأكثر قراءة

ثقافة 4/19/2026 8:10:00 PM
إيرادات "سوبر ماريو غالاكسي" تقترب من 750 مليون دولار عالمياً.
ثقافة 4/20/2026 10:31:00 PM
لماذا يبدو "سوبر ماريو" معاصراً؟
ثقافة 4/23/2026 12:24:00 PM
فيلم "سوبر ماريو" يتصدّر عالمياً رغم تقييمات نقدية ضعيفة.
تحقيقات 4/25/2026 6:00:00 AM
في عيون العائلة، تختصر الحكاية كلّها. وجع صامت، ودموع تسبق الكلام. رنا، الأم والزوجة، التي كانت تضجّ حياةً، صارت اليوم ذكرى مثقلة بالفقد.