أعلنت إدارة ترامب يوم الثلاثاء أنها توصلت إلى اتفاقيات جديدة مع Microsoft وGoogle DeepMind وXAI التابعة لإيلون ماسك لتوسيع التعاون مع شركات التكنولوجيا الكبرى في مجال البحث. الذكاء الاصطناعي (AI) والأمن.
سيعمل مركز معايير الذكاء الاصطناعي والابتكار (CAISI)، وهو جزء من المعهد الوطني للمعايير والتكنولوجيا التابع لوزارة التجارة، مع شركات الذكاء الاصطناعي على تقييمات ما قبل النشر بالإضافة إلى الأبحاث المستهدفة حول قدرات الذكاء الاصطناعي الحدودية وتقنياته. أمن الذكاء الاصطناعي.
وتعتمد الاتفاقيات الجديدة على الشراكات المعلن عنها مسبقًا بين CAISI والشركات، ودعم تبادل المعلومات، ودفع التحسينات الطوعية للمنتجات وضمان فهم واضح في الحكومة لقدرات الذكاء الاصطناعي وحالة المنافسة الدولية في الذكاء الاصطناعي.
وقال كريس فال، مدير CAISI: “إن علم القياس المستقل والصارم ضروري لفهم الذكاء الاصطناعي الحدودي وآثاره على الأمن القومي”. “إن هذا التعاون الموسع في الصناعة يساعدنا على توسيع نطاق عملنا بما يخدم المصلحة العامة في لحظة حرجة.”
كيف يعيد التعرض للذكاء الاصطناعي تشكيل الوظائف في المجالات الإبداعية
يقوم المطورون في كثير من الأحيان بتزويد CAISI بالنماذج التي خفضت أو أزالت الضمانات لتقييم القدرات والمخاطر المتعلقة بالأمن القومي.
المقيمون من جميع أنحاء الوكالات الحكومية قد يشارك في التقييمات ويقدم تعليقات منتظمة من خلال فريق عمل TRAINS، وهو عبارة عن مجموعة من الخبراء المشتركين بين الوكالات الذين يركزون على مخاوف الأمن القومي للذكاء الاصطناعي.
تدعم اتفاقيات CAISI الاختبار في البيئات السرية وتمت صياغتها بمرونة للاستجابة للتطورات المستمرة في الذكاء الاصطناعي.
يقول زوكربيرغ إن عمليات تسريح العمال المرتبطة بإنفاق الذكاء الاصطناعي، لن تستبعد التخفيضات المستقبلية
مايكروسوفت وقالت ناتاشا كرامبتون، كبيرة مسؤولي الذكاء الاصطناعي في بيان، إن الاتفاقيات “ستعمل على تعزيز علم اختبار وتقييم الذكاء الاصطناعي، بما في ذلك من خلال العمل التعاوني لاختبار نماذج مايكروسوفت الحدودية، وتقييم الضمانات، والمساعدة في تخفيف مخاطر الأمن القومي والسلامة العامة واسعة النطاق”.
وقال كرامبتون إن “الاختبارات المستمرة والصارمة ضرورية لبناء الثقة في أنظمة الذكاء الاصطناعي المتقدمة”.
يقول إيلون ماسك إنه كان “أحمقًا” لتمويل OPENAI: تقرير
“تساعدنا الاختبارات المعدة جيدًا على فهم ما إذا كانت أنظمتنا تعمل على النحو المنشود وتقدم الفوائد التي صممت لتوفيرها. وتساعدنا الاختبارات أيضًا على البقاء في صدارة المخاطر، مثل المخاطر الهجمات الإلكترونية المعتمدة على الذكاء الاصطناعي وأوضح كرامبتون أن “الاستخدامات الإجرامية الأخرى لأنظمة الذكاء الاصطناعي يمكن أن تظهر بمجرد نشر أنظمة الذكاء الاصطناعي المتقدمة في العالم”.
أعلنت Microsoft أيضًا عن اتفاقية مماثلة مع المملكة المتحدة معهد أمن الذكاء الاصطناعي (AISI) لإدارة اختبار الذكاء الاصطناعي وتقييمه.
احصل على FOX Business أثناء التنقل بالنقر هنا










