عندما كتبت عن شركة أندوريل في عام 2018، قالت الشركة صراحة إنها لن تصنع أسلحة فتاكة. والآن تقومون بتصنيع طائرات مقاتلة وطائرات بدون طيار تعمل تحت الماء وأسلحة حربية فتاكة أخرى. لماذا قمتم بهذا التحول؟

لقد استجبنا لما رأيناه، ليس فقط داخل قواتنا المسلحة بل وأيضاً في مختلف أنحاء العالم. ونحن نريد أن نكون على استعداد لتقديم أفضل القدرات بأكثر الطرق الأخلاقية الممكنة. والبديل هو أن يقوم شخص ما بذلك على أي حال، ونحن نعتقد أننا قادرون على القيام بذلك على أفضل وجه.

هل كانت هناك مناقشات روحية قبل عبور هذا الخط؟

هناك نقاش داخلي مستمر حول ما ينبغي بناؤه وما إذا كان هناك توافق أخلاقي مع مهمتنا. لا أعتقد أن هناك الكثير من الفائدة في محاولة تحديد خطنا الخاص عندما تكون الحكومة هي التي تحدد هذا الخط بالفعل. لقد قدمت إرشادات واضحة حول ما سيفعله الجيش. نحن نتبع قيادة حكومتنا المنتخبة ديمقراطياً لإخبارنا بقضاياهم وكيف يمكننا أن نكون مفيدين.

ما هو الدور المناسب للذكاء الاصطناعي المستقل في الحرب؟

لحسن الحظ، بذلت وزارة الدفاع الأميركية جهوداً أكبر في هذا الصدد ربما من أي منظمة أخرى في العالم، باستثناء الشركات الكبرى التي تعمل في مجال الذكاء الاصطناعي التوليدي. وهناك قواعد واضحة للتعامل مع هذه المسألة تجعل البشر على اطلاع دائم. وتريد الولايات المتحدة أن تخرج البشر من الوظائف المملة والقذرة والخطيرة، وأن تجعل عملية اتخاذ القرار أكثر كفاءة مع إبقاء الشخص مسؤولاً دائماً في نهاية المطاف. وهذا هو هدف كل السياسات التي تم وضعها، بغض النظر عن التطورات في مجال الاستقلال الذاتي في السنوات الخمس أو العشر المقبلة.

قد يكون هناك إغراء في الصراع بعدم انتظار تدخل البشر، عندما تظهر الأهداف في لحظة، خاصة مع الأسلحة مثل طائراتك المقاتلة ذاتية التشغيل.

البرنامج المستقل الذي نعمل عليه لطائرة فوري (وهي مقاتلة تستخدمها البحرية الأمريكية وسلاح مشاة البحرية) يسمى CCA، وهو برنامج طائرات قتالية تعاونية. يوجد رجل في طائرة يتحكم في الطائرات المقاتلة الروبوتية ويأمرها ويقرر ما تفعله.

ماذا عن الطائرات بدون طيار التي تقوم ببنائها والتي تظل في الهواء حتى ترى هدفًا ثم تنقض عليه؟

هناك تصنيف للطائرات بدون طيار يسمى “الذخائر المتسكعة”، وهي طائرات تبحث عن الأهداف ثم تتمتع بالقدرة على مهاجمة تلك الأهداف، على غرار الطائرات الانتحارية. ومرة ​​أخرى، هناك إنسان مسؤول عن هذه المهمة.

إن الحرب فوضوية. أليس هناك قلق حقيقي من أن هذه المبادئ سوف تُهمل بمجرد بدء الأعمال العدائية؟

إن البشر يخوضون الحروب، والبشر معيبون. فنحن نرتكب الأخطاء. وحتى عندما كنا نقف في صفوف ونطلق النار على بعضنا البعض بالبنادق، كانت هناك عملية للحكم على انتهاكات قانون الاشتباك. وأعتقد أن هذا سوف يستمر. هل أعتقد أنه لن تكون هناك حالة يُطلب فيها من نظام مستقل القيام بشيء يبدو وكأنه انتهاك صارخ للمبادئ الأخلاقية؟ بالطبع لا، لأن البشر ما زالوا مسؤولين. هل أعتقد أنه من الأكثر أخلاقية محاكمة صراع خطير وفوضوي باستخدام روبوتات أكثر دقة وتمييزًا وأقل عرضة للتصعيد؟ نعم. اتخاذ القرار لا إن القيام بهذا يعني الاستمرار في تعريض الناس للخطر.

أنا متأكد من أنك على دراية بالرسالة الأخيرة التي وجهها أيزنهاور حول مخاطر المجمع الصناعي العسكري الذي يخدم احتياجاته الخاصة. هل يؤثر هذا التحذير على كيفية عملك؟

إن هذا الخطاب من أعظم الخطابات على الإطلاق ـ فأنا أقرأه مرة واحدة على الأقل في العام. لقد كان أيزنهاور يعرب عن فكرة المجمع الصناعي العسكري حيث لا تختلف الحكومة كثيراً عن الشركات المتعاقدة مثل لوكهيد مارتن، وبوينج، ونورثروب جرومان، وجنرال ديناميكس. فهناك باب دوار في المستويات العليا من هذه الشركات، وهي تتحول إلى مراكز قوة بسبب هذا الترابط. وكان أندوريل يدفع باتجاه نهج أكثر تجارية لا يعتمد على هيكل الحوافز المترابط بشكل وثيق. فنحن نقول: “دعونا نبني الأشياء بأقل تكلفة، باستخدام التقنيات الجاهزة، ونفعل ذلك بطريقة نتحمل فيها قدراً كبيراً من المخاطر”. وهذا يتجنب بعض التوتر المحتمل الذي حدده أيزنهاور.

شاركها.
اترك تعليقاً

Exit mobile version