OpenAI يوم الثلاثاء أعلنت اليوم عن المرحلة التالية من استراتيجية الأمن السيبراني الخاصة بها ونموذج جديد مصمم خصيصًا للاستخدام من قبل المدافعين الرقميين، وهو GPT-5.4-Cyber.
تأتي هذه الأخبار في أعقاب إعلان شركة Anthropic المنافسة الأسبوع الماضي أن نموذج Claude Mythos Preview الجديد سيتم إصداره بشكل خاص في الوقت الحالي فقط – لأنه، كما تقول الشركة، يمكن استغلاله من قبل المتسللين والجهات الفاعلة السيئة. أعلنت Anthropic أيضًا عن تحالف صناعي، يضم منافسين مثل Google، يركز على كيفية تأثير التقدم في الذكاء الاصطناعي التوليدي عبر هذا المجال على الأمن السيبراني.
يبدو أن OpenAI تسعى إلى تمييز رسالتها يوم الثلاثاء من خلال استخدام لهجة أقل كارثية والترويج لحواجز الحماية والدفاعات الحالية مع الإشارة إلى الحاجة إلى حماية أكثر تقدمًا على المدى الطويل.
وكتبت الشركة في منشور بالمدونة: “نعتقد أن فئة الضمانات المستخدمة اليوم تقلل بشكل كافٍ من المخاطر السيبرانية بما يكفي لدعم النشر على نطاق واسع للنماذج الحالية”. “نتوقع أن تكون إصدارات هذه الضمانات كافية للنماذج القادمة الأكثر قوة، في حين أن النماذج التي تم تدريبها بشكل واضح وجعلها أكثر تساهلاً في أعمال الأمن السيبراني تتطلب عمليات نشر أكثر تقييدًا وضوابط مناسبة. على المدى الطويل، لضمان الكفاية المستمرة لسلامة الذكاء الاصطناعي في الأمن السيبراني، نتوقع أيضًا الحاجة إلى دفاعات أكثر اتساعًا للنماذج المستقبلية، التي ستتجاوز قدراتها بسرعة حتى أفضل النماذج المصممة لهذا الغرض اليوم.”
تقول الشركة إنها ركزت على ثلاث ركائز لنهج الأمن السيبراني الخاص بها. يتضمن الأول ما يسمى بأنظمة التحقق من صحة “اعرف عميلك” للسماح بالوصول الخاضع للتحكم إلى النماذج الجديدة التي تكون واسعة النطاق و”ديمقراطية” قدر الإمكان. وكتبت الشركة يوم الثلاثاء: “نحن نصمم آليات تتجنب اتخاذ قرار تعسفي بشأن من يمكنه الوصول للاستخدام المشروع ومن لا يمكنه ذلك”. تجمع OpenAI بين نموذج تتعاون فيه مع مؤسسات معينة في إصدارات محدودة مع نظام آلي تم تقديمه في فبراير، يُعرف باسم Trusted Access for Cyber أو TAC.
يتضمن العنصر الثاني من الإستراتيجية “النشر التكراري” أو عملية إطلاق القدرات الجديدة “بعناية” ومن ثم تحسينها حتى تتمكن الشركة من الحصول على رؤية وتعليقات واقعية. يسلط منشور المدونة الضوء بشكل خاص على “المرونة في مواجهة عمليات كسر الحماية والهجمات العدائية الأخرى، وتحسين القدرات الدفاعية.” أخيرًا، ينصب التركيز الثالث على الاستثمارات التي تقول الشركة إنها تدعم أمن البرمجيات وغيرها من وسائل الدفاع الرقمي مع انتشار الذكاء الاصطناعي التوليدي.
تقول OpenAI إن المبادرة تتناسب مع جهودها الأمنية الأوسع، بما في ذلك وكيل الذكاء الاصطناعي لأمن التطبيقات الذي تم إطلاقه الشهر الماضي المعروف باسم Codex Security، وهو برنامج منح للأمن السيبراني بدأ في عام 2023، وهو تبرع حديث لمؤسسة Linux لدعم أمن المصادر المفتوحة، و”إطار الاستعداد” الذي يهدف إلى التقييم والدفاع ضد “الأضرار الجسيمة الناجمة عن قدرات الذكاء الاصطناعي الحدودية”.
إن ادعاءات Anthropic الأسبوع الماضي بأن نماذج الذكاء الاصطناعي الأكثر قدرة تتطلب حسابًا للأمن السيبراني كانت مثيرة للجدل بين خبراء الأمن. يقول البعض إن هذه المخاوف مبالغ فيها ويمكن أن تغذي موجة جديدة من المشاعر المناهضة للقراصنة، مما يؤدي إلى تعزيز القوة بشكل أكبر مع عمالقة التكنولوجيا. ومع ذلك، يؤكد آخرون أن نقاط الضعف وأوجه القصور في الدفاعات الأمنية الحالية معروفة جيدًا ويمكن استغلالها بالفعل بسرعة وكثافة جديدة من قبل مجموعة أوسع من الجهات الفاعلة السيئة في عصر الذكاء الاصطناعي العميل.









