شام تايمز – متابعة
يسعى باحثون إلى تطوير طرق جديدة تساعد على فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي لقراراتها، في محاولة لكشف ما يعرف بـ«الصندوق الأسود» الذي يصف عمل كثير من نماذج التعلم الآلي المتقدمة، والتي تقدم نتائج دقيقة دون أن يكون من السهل معرفة الأسس التي اعتمدت عليها.
وذكرت صحيفة The Guardian، أن فريقاً بحثياً في معهد ماساتشوستس للتكنولوجيا (MIT)، يعمل على تطوير تقنيات تتيح لأنظمة الذكاء الاصطناعي تفسير قراراتها بشكل أوضح، بما يسهم في تعزيز الثقة بهذه الأنظمة مع توسع استخدامها في مجالات حساسة مثل الطب والنقل والبحث العلمي.
ويرتكز النهج الجديد على نموذج يعرف باسم «عنق الزجاجة المفاهيمي»، حيث لا ينتقل النظام مباشرةً من البيانات إلى النتيجة، بل يحدد أولاً مجموعة مفاهيم أو خصائص يمكن للبشر فهمها، ثم يعتمد عليها في إصدار التنبؤات والقرارات.
ويسمح هذا الأسلوب بربط نتائج النظام بعوامل واضحة يمكن تفسيرها، ما يساعد المستخدمين والباحثين على فهم أسباب القرارات التي يتخذها الذكاء الاصطناعي بدقة أكبر.
ويرى الباحثون أن هذه المقاربة قد تسهم في تطوير أنظمة ذكاء اصطناعي أكثر شفافية وموثوقية، عبر تقليل الغموض في عمل الخوارزميات وتحسين القدرة على اكتشاف الأخطاء أو التحيزات المحتملة.
شام تايمز الإخباري رؤية لسورية أجمل