أكثر من 30 قدم موظفون من OpenAI وGoogle، بما في ذلك كبير العلماء في Google DeepMind جيف دين، مذكرة صديق يوم الاثنين لدعم Anthropic في معركتها القانونية ضد الحكومة الأمريكية.
وكتب الموظفون: “إذا سُمح للمضي قدمًا، فإن هذا الجهد لمعاقبة إحدى الشركات الأمريكية الرائدة في مجال الذكاء الاصطناعي سيكون له بلا شك عواقب على القدرة التنافسية الصناعية والعلمية للولايات المتحدة في مجال الذكاء الاصطناعي وخارجه”.
تم تقديم المذكرة بعد ساعات فقط من رفع شركة Anthropic دعوى قضائية ضد وزارة الدفاع والوكالات الفيدرالية الأخرى بشأن قرار البنتاغون تصنيف الشركة على أنها “خطر على سلسلة التوريد”. دخلت العقوبة، التي تحد بشدة من قدرة أنثروبيك على العمل مع المقاولين العسكريين، حيز التنفيذ بعد انهيار مفاوضات أنثروبيك مع البنتاغون. تسعى شركة الذكاء الاصطناعي الناشئة إلى الحصول على أمر تقييدي مؤقت لمواصلة عملها مع الشركاء العسكريين مع تقدم الدعوى القضائية. ويدعم هذا الموجز هذه الحركة على وجه التحديد.
ومن بين الموقعين على الملخص باحثو Google DeepMind Zhengdong Wang، و Alexander Matt Turner، و Noah Siegel، بالإضافة إلى الباحثين في OpenAI غابرييل وو، و Pamela Mishkin، و Roman Novak، من بين آخرين. ملخصات Amicus هي ملفات قانونية مقدمة من أطراف غير منخرطة بشكل مباشر في قضية أمام المحكمة ولكن لديها خبرة ذات صلة بها. ووقع الموظفون بصفتهم الشخصية ولا يمثلون آراء شركاتهم، بحسب الملخص.
لم تستجب OpenAI وGoogle على الفور لطلب WIRED للتعليق.
يقول موجز صديق المحكمة إن قرار البنتاغون بإدراج شركة أنثروبيك في القائمة السوداء “يؤدي إلى عدم القدرة على التنبؤ في صناعتها، مما يقوض الابتكار والقدرة التنافسية الأمريكية” و”يثير الجدل المهني حول فوائد ومخاطر أنظمة الذكاء الاصطناعي الحدودية”. ويشير التقرير إلى أن البنتاغون كان بإمكانه ببساطة إسقاط عقد الأنثروبيك إذا لم يعد يرغب في الالتزام بشروطه.
يقول الموجز أيضًا أن الخطوط الحمراء التي تدعي الأنثروبي أنها طلبتها، بما في ذلك عدم استخدام الذكاء الاصطناعي الخاص بها في المراقبة المحلية الجماعية وتطوير أسلحة فتاكة مستقلة، هي مخاوف مشروعة وتتطلب حواجز حماية كافية. وجاء في المذكرة: “في غياب القانون العام، فإن المتطلبات التعاقدية والتكنولوجية التي يفرضها مطورو الذكاء الاصطناعي على استخدام أنظمتهم تمثل ضمانة حيوية ضد سوء الاستخدام الكارثي”.
كما شكك العديد من قادة الذكاء الاصطناعي الآخرين علنًا في قرار البنتاغون بتصنيف الأنثروبيك على أنه خطر على سلسلة التوريد. قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في منشور على وسائل التواصل الاجتماعي إن “فرض تصنيف SCR (مخاطر سلسلة التوريد) على Anthropic سيكون سيئًا للغاية بالنسبة لصناعتنا وبلدنا”. وأضاف أن “هذا قرار سيء للغاية من وزارة العمل وآمل أن يتراجعوا عنه”. ومع توتر علاقة أنثروبك مع البنتاغون، سرعان ما وقعت شركة OpenAI عقدها الخاص مع الجيش الأمريكي، وهو القرار الذي انتقده بعض الناس باعتباره انتهازيًا.


