متى أصبحت شركة Anthropic في العام الماضي أول شركة كبرى تعمل في مجال الذكاء الاصطناعي والتي تسمح لها حكومة الولايات المتحدة بالاستخدام السري – بما في ذلك التطبيقات العسكرية – ولم تحظ الأخبار باهتمام كبير. ولكن هذا الأسبوع حدث تطور ثانٍ مثل قذيفة مدفع: حيث يعيد البنتاغون النظر في علاقته مع الشركة، بما في ذلك عقد بقيمة 200 مليون دولار، ظاهريًا لأن شركة الذكاء الاصطناعي الواعية بالسلامة تعترض على المشاركة في بعض العمليات القاتلة. وقد تصنف ما يسمى بوزارة الحرب الأنثروبيك على أنها “خطر سلسلة التوريد”، وهو حرف قرمزي مخصص عادة للشركات التي تتعامل مع البلدان التي تخضع للتدقيق من قبل الوكالات الفيدرالية، مثل الصين، وهو ما يعني أن البنتاغون لن يتعامل مع الشركات التي تستخدم الذكاء الاصطناعي الأنثروبيكي في أعمالها الدفاعية. في تصريح لـ WIRED، أكد كبير المتحدثين باسم البنتاغون، شون بارنيل، أن الأنثروبيك كانت في المقعد الساخن. وقال: “تتطلب أمتنا أن يكون شركاؤنا على استعداد لمساعدة مقاتلينا على الفوز في أي معركة. في نهاية المطاف، يتعلق الأمر بقواتنا وسلامة الشعب الأمريكي”. هذه رسالة إلى الشركات الأخرى أيضًا: OpenAI، وxAI، وGoogle، التي لديها حاليًا عقود وزارة الدفاع للأعمال غير السرية، تقفز من خلال الأطواق المطلوبة للحصول على تصاريح عالية خاصة بها.

هناك الكثير لتفريغه هنا. لسبب واحد، هناك سؤال حول ما إذا كانت شركة أنثروبيك ستعاقب بسبب شكواها من حقيقة أن نموذج الذكاء الاصطناعي الخاص بها، كلود، قد تم استخدامه كجزء من الغارة للإطاحة بالرئيس الفنزويلي نيكولاس مادورو (هذا ما تم الإبلاغ عنه؛ لكن الشركة تنفي ذلك). هناك أيضًا حقيقة أن Anthropic تدعم علنًا تنظيم الذكاء الاصطناعي، وهو موقف غريب في الصناعة ويتعارض مع سياسات الإدارة. ولكن هناك مشكلة أكبر وأكثر إثارة للقلق. هل ستؤدي مطالبات الحكومة بالاستخدام العسكري إلى جعل الذكاء الاصطناعي نفسه أقل أمانًا؟

يعتقد الباحثون والمديرون التنفيذيون أن الذكاء الاصطناعي هو أقوى تقنية تم اختراعها على الإطلاق. لقد تم تأسيس جميع شركات الذكاء الاصطناعي الحالية تقريبًا على فرضية مفادها أنه من الممكن تحقيق الذكاء الاصطناعي العام، أو الذكاء الفائق، بطريقة تمنع الضرر على نطاق واسع. كان إيلون ماسك، مؤسس شركة xAI، من أكبر المؤيدين لكبح جماح الذكاء الاصطناعي، فقد شارك في تأسيس OpenAI لأنه كان يخشى أن تكون التكنولوجيا خطيرة للغاية بحيث لا يمكن تركها في أيدي الشركات الساعية إلى الربح.

لقد استحوذت الأنثروبيك على مساحة باعتبارها الأكثر وعيًا بالسلامة على الإطلاق. وتتمثل مهمة الشركة في دمج حواجز الحماية بشكل عميق في نماذجها بحيث لا يتمكن الممثلون السيئون من استغلال أحلك إمكانات الذكاء الاصطناعي. قالها إسحاق عظيموف أولاً وأفضل في قوانينه للروبوتات: لا يجوز للروبوت أن يؤذي إنسانًا، أو أن يسمح للإنسان، من خلال التقاعس عن العمل، بإلحاق الأذى به. وحتى عندما يصبح الذكاء الاصطناعي أكثر ذكاءً من أي إنسان على وجه الأرض ــ وهو الاحتمال الذي يؤمن به قادة الذكاء الاصطناعي بشدة ــ فلابد أن تظل هذه الحواجز قائمة.

لذلك يبدو من التناقض أن تسعى مختبرات الذكاء الاصطناعي الرائدة جاهدة لإدخال منتجاتها في العمليات العسكرية والاستخباراتية المتطورة. وباعتباره أول مختبر رئيسي بعقد سري، يقدم أنثروبيك للحكومة “مجموعة مخصصة من نماذج كلود جوف المصممة حصريًا لعملاء الأمن القومي الأمريكي”. ومع ذلك، قالت أنثروبيك إنها فعلت ذلك دون انتهاك معايير السلامة الخاصة بها، بما في ذلك حظر استخدام كلود لإنتاج أو تصميم الأسلحة. قال الرئيس التنفيذي لشركة Anthropic Dario Amodei على وجه التحديد إنه لا يريد أن يشارك كلود في الأسلحة المستقلة أو المراقبة الحكومية للذكاء الاصطناعي. لكن هذا قد لا ينجح مع الإدارة الحالية. صرح CTO Emil Michael (الرئيس التنفيذي السابق لشركة Uber) بوزارة الدفاع للصحفيين هذا الأسبوع أن الحكومة لن تتسامح مع شركة للذكاء الاصطناعي تحد من كيفية استخدام الجيش للذكاء الاصطناعي في أسلحته. “إذا كان هناك سرب من الطائرات بدون طيار يخرج من قاعدة عسكرية، فما هي الخيارات المتاحة أمامك لإسقاطها؟ إذا لم يكن وقت رد الفعل البشري سريعًا بما يكفي … فكيف ستفعل؟” سأل خطابيا. الكثير بالنسبة للقانون الأول للروبوتات.

هناك حجة جيدة مفادها أن الأمن القومي الفعال يتطلب أفضل التقنيات من الشركات الأكثر ابتكارًا. وفي حين تراجعت بعض شركات التكنولوجيا عن العمل مع البنتاغون، حتى قبل بضع سنوات، إلا أنها في عام 2026 أصبحت عمومًا مقاولين عسكريين محتملين يلوحون بالأعلام. لم أسمع بعد أي مسؤول تنفيذي في مجال الذكاء الاصطناعي يتحدث عن ارتباط نماذجهم بالقوة المميتة، لكن الرئيس التنفيذي لشركة Palantir Alex Karp لا يخجل من القول بفخر واضح: “يتم استخدام منتجنا في بعض الأحيان لقتل الناس”.

شاركها.
اترك تعليقاً

Exit mobile version