شام تايمز – متابعة
كشفت شركة “OpenAI” عن قدرات خطيرة محتملة لنماذج الذكاء الاصطناعي الجديدة التي تطورها، قائلةً: إن “هذه الأنظمة الذكية قد تصل إلى درجة تمكنها من المساعدة في تصنيع أسلحة بيولوجية متطورة”.
وجاء هذا الإفصاح المثير في منشور رسمي للشركة، أقرت فيه بأنها توازن بين سعيها لتحقيق تقدم علمي مذهل في مجالات مثل الأبحاث الطبية الحيوية والدفاع البيولوجي، وبين مسؤوليتها في منع تسريب معلومات خطيرة قد تهدد الأمن العالمي.
وتتوقع الشركة أن تصل بعض النماذج التطويرية اللاحقة لنموذجها الاستدلالي “o3” إلى هذا المستوى من الخطورة، ما دفعها لاعتماد استراتيجية وقائية صارمة، فبدلاً من الانتظار لمعرفة ما إذا كانت هذه التهديدات ستصبح حقيقة واقعة، اختارت “OpenAI” المضي قدماً في تطوير ضوابط أمان متقدمة تصل إلى درجة “الكمال شبه التام”، حيث يجب أن تتمكن الأنظمة من اكتشاف أي محاولات لاستغلالها في أغراض ضارة وإبلاغ المشرفين البشر عنها فوراً.
لكن هذه الطموحات الوقائية لا تخلو من مخاطر جسيمة، حيث توجد إمكانية حقيقية لاستغلال هذه التقنيات المتطورة من قبل جهات غير مسئولة في أعمال تتعارض مع حقوق الإنسان.
ويأتي هذا الجدل في وقت تشهد فيه صناعة الذكاء الاصطناعي تحولات جذرية، حيث تزداد القدرات التقنية بشكل مطرد بينما تظل الضوابط الأخلاقية والتنظيمية عاجزة عن مواكبة هذه التطورات السريعة.