في الشهر الماضي، حدد أمر تنفيذي أمريكي مكون من 120 صفحة خطط إدارة بايدن للإشراف على الشركات التي تطور تقنيات الذكاء الاصطناعي وتوجيهات حول كيفية قيام الحكومة الفيدرالية بتوسيع اعتمادها للذكاء الاصطناعي. ومع ذلك، ركزت الوثيقة في جوهرها بشكل كبير على القضايا الأمنية المتعلقة بالذكاء الاصطناعي – سواء بإيجاد نقاط الضعف في منتجات الذكاء الاصطناعي وإصلاحها وتطوير الدفاعات ضد هجمات الأمن السيبراني المحتملة التي يغذيها الذكاء الاصطناعي. وكما هو الحال مع أي أمر تنفيذي، فإن المشكلة تكمن في كيفية تحويل وثيقة مجردة ومترامية الأطراف إلى عمل ملموس. واليوم، ستعلن وكالة الأمن السيبراني وأمن البنية التحتية الأمريكية (CISA) عن “خارطة طريق للذكاء الاصطناعي” التي تحدد خطتها لتنفيذ الأمر.
تقسم CISA خططها لمعالجة الأمن السيبراني للذكاء الاصطناعي والمواضيع الحيوية المتعلقة بالبنية التحتية إلى خمس مجموعات. يتضمن اثنان منها تعزيز التواصل والتعاون وخبرة القوى العاملة عبر الشراكات العامة والخاصة، وثلاثة منها ترتبط بشكل أكثر واقعية بتنفيذ مكونات محددة من منظمة أصحاب العمل. يقع CISA داخل وزارة الأمن الداخلي الأمريكية (DHS).
“من المهم أن نكون قادرين على طرح هذا الأمر ومحاسبة أنفسنا، بصراحة، على كل من الأشياء العامة التي يتعين علينا القيام بها من أجل مهمتنا، ولكن أيضًا ما ورد في الأمر التنفيذي،” قال مدير CISA لمجلة WIRED قبل المؤتمر. إصدار خارطة الطريق. “من الواضح أن الذكاء الاصطناعي كبرنامج سيكون له تأثيرات هائلة على المجتمع، ولكن كما أنه سيجعل حياتنا أفضل وأسهل، فإنه يمكن أن يفعل الشيء نفسه بالنسبة لخصومنا الكبار والصغار. لذلك ينصب تركيزنا على كيفية ضمان تطوير وتنفيذ هذه الأنظمة بشكل آمن ومأمون.
تركز خطة CISA على استخدام الذكاء الاصطناعي بشكل مسؤول، ولكن بقوة أيضًا في الدفاع الرقمي الأمريكي. يؤكد إيسترلي على أنه في حين أن الوكالة “تركز على الأمن أكثر من السرعة” فيما يتعلق بتطوير القدرات الدفاعية المدعومة بالذكاء الاصطناعي، فإن الحقيقة هي أن المهاجمين سوف يستغلون هذه الأدوات – وفي بعض الحالات يتم ذلك بالفعل – لذا فمن الضروري و ومن الملح أن تستخدمها حكومة الولايات المتحدة أيضًا.
ومع أخذ هذا في الاعتبار، فإن نهج CISA لتعزيز استخدام الذكاء الاصطناعي في الدفاع الرقمي سوف يتمحور حول الأفكار الراسخة التي يمكن للقطاعين العام والخاص أن يستمدوها من الأمن السيبراني التقليدي. وعلى حد تعبير إيسترلي، فإن “الذكاء الاصطناعي هو شكل من أشكال البرمجيات، ولا يمكننا أن نتعامل معه باعتباره شيئا غريبا يجب أن تنطبق عليه قواعد جديدة”. يجب أن تكون أنظمة الذكاء الاصطناعي “آمنة حسب التصميم”، مما يعني أنه تم تطويرها مع مراعاة القيود والأمان بدلاً من محاولة إضافة الحماية بأثر رجعي إلى النظام الأساسي المكتمل كفكرة لاحقة. تعتزم CISA أيضًا الترويج لاستخدام “قوائم المواد البرمجية” وغيرها من التدابير لإبقاء أنظمة الذكاء الاصطناعي مفتوحة للتدقيق وتدقيق سلسلة التوريد.
يقول إيسترلي: “(تحتاج) الشركات المصنعة للذكاء الاصطناعي إلى تحمل المسؤولية عن النتائج الأمنية – وهذه هي الفكرة برمتها المتمثلة في تحويل العبء إلى تلك الشركات التي يمكنها تحمله بشكل أكبر”. “هؤلاء هم الذين يبنون ويصممون هذه التقنيات، والأمر يتعلق بأهمية تبني الشفافية الجذرية. التأكد من أننا نعرف ما هو موجود في هذا البرنامج حتى نتمكن من ضمان حمايته.