قدم الأنثروبي أ دعوى قضائية اتحادية ضد وزارة الدفاع الأمريكية والوكالات الفيدرالية الأخرى يوم الاثنين، تتحدى تصنيفها لشركة الذكاء الاصطناعي باعتبارها “خطرًا على سلسلة التوريد”.

فرض البنتاغون عقوبات على شركة أنثروبيك رسميًا الأسبوع الماضي، مما أنهى خلافًا علنيًا استمر لأسابيع حول القيود المفروضة على استخدام تكنولوجيا الذكاء الاصطناعي التوليدية للتطبيقات العسكرية مثل الأسلحة المستقلة.

وكتب داريو أمودي، الرئيس التنفيذي لشركة Anthropic، في منشور على مدونة يوم الخميس: “لا نعتقد أن هذا الإجراء سليم من الناحية القانونية، ولا نرى أي خيار سوى الطعن فيه أمام المحكمة”.

وطالبت الدعوى، التي تم رفعها أمام محكمة اتحادية في كاليفورنيا، بأن يقوم القاضي بإلغاء التصنيف ومنع الوكالات الفيدرالية من تنفيذه. وقالت أنثروبيك في الملف: “الدستور لا يسمح للحكومة بممارسة سلطتها الهائلة لمعاقبة شركة بسبب خطابها المحمي”. “تلجأ الإنسانية إلى القضاء كملاذ أخير للدفاع عن حقوقها ووقف الحملة الانتقامية غير القانونية التي تشنها السلطة التنفيذية.”

تواجه شركة الذكاء الاصطناعي الناشئة، التي تطور مجموعة من نماذج الذكاء الاصطناعي تسمى “كلود”، احتمال خسارة مئات الملايين من الدولارات من الإيرادات السنوية من البنتاغون وبقية الحكومة الأمريكية. وقد تخسر أيضًا أعمال شركات البرمجيات التي تدمج كلود في الخدمات التي تبيعها للوكالات الفيدرالية. وبحسب ما ورد قال العديد من عملاء Anthropic إنهم يبحثون عن بدائل بسبب تصنيف المخاطر التابع لوزارة الدفاع.

كتب Amodei أن “الغالبية العظمى” من عملاء Anthropic لن يضطروا إلى إجراء تغييرات. وقال إن تصنيف الحكومة الأمريكية “ينطبق بوضوح فقط على استخدام كلود من قبل العملاء كجزء مباشر من العقود المبرمة مع” الجيش. يجب ألا يتأثر الاستخدام العام للتقنيات البشرية من قبل المقاولين العسكريين.

ولم تستجب وزارة الدفاع، التي تديرها أيضًا وزارة الحرب، والبيت الأبيض على الفور لطلبات التعليق على الدعوى القضائية التي رفعتها أنثروبيك.

يقول المحامون ذوو الخبرة في التعاقدات الحكومية إن شركة أنثروبيك تواجه معركة صعبة في المحكمة. القواعد التي تسمح لوزارة الدفاع بتصنيف شركة تكنولوجيا على أنها تمثل خطرًا على سلسلة التوريد لا تسمح بالكثير من الاستئناف. يقول بريت جونسون، الشريك في شركة المحاماة سنيل آند ويلمر: “إن تحديد معايير العقد من صلاحيات الحكومة بنسبة 100 في المائة”. ويقول إن البنتاغون لديه أيضًا الحق في التعبير عن أن المنتج المثير للقلق، إذا تم استخدامه من قبل أي من مورديه، “يضر بقدرة الحكومة على تنفيذ مهمتها”.

يقول جونسون إن أفضل فرصة لنجاح أنثروبيك في المحكمة يمكن أن تكون إثبات أنها كانت مستهدفة. بعد فترة وجيزة من إعلان وزير الدفاع بيت هيجسيث أنه كان يصنف شركة أنثروبيك على أنها خطر على سلسلة التوريد، أعلنت شركة OpenAI المنافسة أنها أبرمت عقدًا جديدًا مع البنتاغون. قد يكون ذلك مفيدًا في حجة Anthropic القانونية إذا تمكنت الشركة من إثبات أنها كانت تسعى للحصول على شروط مماثلة مثل مطور ChatGPT.

وقالت OpenAI إن صفقتها تتضمن وسائل تعاقدية وفنية لضمان عدم استخدام تكنولوجيتها في المراقبة المحلية الجماعية أو لتوجيه أنظمة الأسلحة المستقلة. وأضافت أنها تعارض الإجراء المتخذ ضد شركة أنثروبيك، وأنها تعلم لماذا لم يتمكن منافسها من التوصل إلى نفس الاتفاق مع الحكومة.

الأولوية العسكرية

وقد أعطى هيجسيث الأولوية للتبني العسكري لتقنيات الذكاء الاصطناعي، حيث شوهدت ملصقات مؤخرًا في البنتاغون تظهره وهو يشير ويقول: “أريدك أن تستخدم الذكاء الاصطناعي”. بدأ النزاع مع Anthropic في يناير بعد أن أمر Hegseth العديد من موردي الذكاء الاصطناعي بالموافقة على أن الإدارة حرة في استخدام تقنياتهم لأي غرض قانوني.

Anthropic، وهي الشركة الوحيدة التي توفر حاليًا برامج الدردشة الآلية وأدوات التحليل لحالات الاستخدام العسكرية الأكثر حساسية، تم التراجع عنها. وتؤكد أن تقنياتها ليست قادرة بعد بما يكفي لاستخدامها في المراقبة المحلية الجماعية للأمريكيين أو الأسلحة المستقلة بالكامل. قال هيجسيث إن الأنثروبيك تريد حق النقض على الأحكام التي يجب تركها لوزارة الدفاع.

شاركها.
اترك تعليقاً

Exit mobile version