الذكاء الاصطناعي قد يصنع أسلحة بيولوجية

شام تايمز – متابعة

كشفت شركة “OpenAI” عن قدرات خطيرة محتملة لنماذج الذكاء الاصطناعي الجديدة التي تطورها، قائلةً: إن “هذه الأنظمة الذكية قد تصل إلى درجة تمكنها من المساعدة في تصنيع أسلحة بيولوجية متطورة”.

وجاء هذا الإفصاح المثير في منشور رسمي للشركة، أقرت فيه بأنها توازن بين سعيها لتحقيق تقدم علمي مذهل في مجالات مثل الأبحاث الطبية الحيوية والدفاع البيولوجي، وبين مسؤوليتها في منع تسريب معلومات خطيرة قد تهدد الأمن العالمي.

وأوضح “يوهان هايديكي” رئيس قسم السلامة في الشركة، أن النماذج القادمة لن تكون قادرة على تصنيع أسلحة بيولوجية بشكل مستقل، لكنها ستوفر أدوات معرفية كافية لتمكين أفراد غير متخصصين من تنفيذ مثل هذه المهام الخطيرة.
وبيّن”هايديكي” أن القلق الأكبر لا يتمحور حول ابتكار تهديدات بيولوجية جديدة غير مسبوقة، بل حول إمكانية هذه النماذج في إعادة إنتاج تهديدات معروفة بالفعل لدى الخبراء.

وتتوقع الشركة أن تصل بعض النماذج التطويرية اللاحقة لنموذجها الاستدلالي “o3” إلى هذا المستوى من الخطورة، ما دفعها لاعتماد استراتيجية وقائية صارمة، فبدلاً من الانتظار لمعرفة ما إذا كانت هذه التهديدات ستصبح حقيقة واقعة، اختارت “OpenAI” المضي قدماً في تطوير ضوابط أمان متقدمة تصل إلى درجة “الكمال شبه التام”، حيث يجب أن تتمكن الأنظمة من اكتشاف أي محاولات لاستغلالها في أغراض ضارة وإبلاغ المشرفين البشر عنها فوراً.

لكن هذه الطموحات الوقائية لا تخلو من مخاطر جسيمة، حيث توجد إمكانية حقيقية لاستغلال هذه التقنيات المتطورة من قبل جهات غير مسئولة في أعمال تتعارض مع حقوق الإنسان.

ويأتي هذا الجدل في وقت تشهد فيه صناعة الذكاء الاصطناعي تحولات جذرية، حيث تزداد القدرات التقنية بشكل مطرد بينما تظل الضوابط الأخلاقية والتنظيمية عاجزة عن مواكبة هذه التطورات السريعة.

شاهد أيضاً

هيئة التقاعد تشارك في اجتماع اللجنة الفنية الـ 62 بدول مجلس التعاون واللقاء التفاعلي بمسقط

شام تايمز – متابعة تشارك الهيئة العامة للتقاعد والتأمينات الاجتماعية في أعمال الاجتماع الثاني والستين …