لقد قضيت في الأيام القليلة الماضية، طلبت من شركات الذكاء الاصطناعي إقناعي بأن آفاق سلامة الذكاء الاصطناعي لم تتضاءل. قبل بضع سنوات فقط، بدا أن هناك اتفاقا عالميا بين الشركات والمشرعين وعامة الناس على أن التنظيم الجاد والإشراف على الذكاء الاصطناعي ليس ضروريا فحسب، بل إنه أمر لا مفر منه. وتكهن الناس بأن الهيئات الدولية تضع قواعد لضمان التعامل مع الذكاء الاصطناعي بقدر أكبر من الجدية مقارنة بالتكنولوجيات الناشئة الأخرى، وهذا يمكن أن يشكل على الأقل عقبات أمام تطبيقاته الأكثر خطورة. وتعهدت الشركات بإعطاء الأولوية للسلامة على المنافسة والأرباح. وفي حين لا يزال المتشائمون ينسجون سيناريوهات بائسة، كان هناك إجماع عالمي يتشكل للحد من مخاطر الذكاء الاصطناعي مع جني فوائده.
وقد وجهت الأحداث التي وقعت خلال الأسبوع الماضي ضربة قوية لتلك الآمال، بدءا من الخلاف المرير بين البنتاغون والأنثروبيك. تتفق جميع الأطراف على أن العقد الحالي بين الاثنين يستخدم لتحديد – بناءً على إصرار الأنثروبيك – أن وزارة الدفاع (التي تشير الآن إلى نفسها باسم وزارة الحرب) لن تستخدم نماذج كلود للذكاء الاصطناعي من أنثروبك للأسلحة المستقلة أو المراقبة الجماعية للأمريكيين. الآن، يريد البنتاغون محو تلك الخطوط الحمراء، ولم يؤد رفض شركة أنثروبيك إلى نهاية عقدها فحسب، بل دفع أيضًا وزير الدفاع بيت هيجسيث إلى إعلان أن الشركة تشكل خطرًا على سلسلة التوريد، وهو التصنيف الذي يمنع الوكالات الحكومية من التعامل مع شركة أنثروبك. وبدون الخوض في التفاصيل المتعلقة بأحكام العقد والديناميكيات الشخصية بين هيجسيث والرئيس التنفيذي لشركة أنثروبيك داريو أمودي، يبدو أن خلاصة القول هي أن الجيش مصمم على مقاومة أي قيود على كيفية استخدامه للذكاء الاصطناعي، على الأقل ضمن حدود الشرعية – حسب تعريفه الخاص.
يبدو أن السؤال الأكبر هو كيف وصلنا إلى النقطة التي أصبح فيها إطلاق طائرات الروبوت القاتلة بدون طيار والقنابل التي تحدد الأهداف البشرية وتقضي عليها، في المحادثة أمرًا قد يفكر فيه الجيش الأمريكي. هل فاتني المناقشة الدولية حول مزايا إنشاء أسراب من الطائرات بدون طيار القاتلة المستقلة التي تقوم بمسح مناطق الحرب، أو حراسة الحدود، أو مراقبة مهربي المخدرات؟ ويشكو هيجسيث وأنصاره من سخافة الشركات الخاصة التي تحد من ما يمكن أن يفعله الجيش. أعتقد أنه من الجنون أن يتطلب الأمر شركة وحيدة تخاطر بعقوبات وجودية لوقف تكنولوجيا يحتمل أن لا يمكن السيطرة عليها. على أية حال، فإن عدم وجود اتفاقيات دولية يعني أن كل ميليشيا متقدمة يجب أن تستخدم الذكاء الاصطناعي بجميع أشكاله، وذلك ببساطة لمواكبة خصومها. في الوقت الحالي، يبدو أن سباق التسلح في مجال الذكاء الاصطناعي أمر لا مفر منه.
وتمتد المخاطر إلى ما هو أبعد من الجيش. طغت دراما البنتاغون على إعلان مثير للقلق نشرته شركة Anthropic في 24 فبراير. وقالت الشركة إنها تجري تغييرات على نظامها للتخفيف من المخاطر الكارثية الناجمة عن الذكاء الاصطناعي، والتي تسمى سياسة التوسع المسؤول. لقد كانت سياسة تأسيسية رئيسية لشركة Anthropic، حيث وعدت الشركة بربط الجدول الزمني لإصدار نموذج الذكاء الاصطناعي بإجراءات السلامة الخاصة بها. نصت السياسة على أنه لا ينبغي إطلاق النماذج بدون حواجز حماية تمنع الاستخدامات الأسوأ. لقد كان بمثابة حافز داخلي للتأكد من عدم إهمال السلامة أثناء الاندفاع لإطلاق التقنيات المتقدمة. والأهم من ذلك هو أن شركة أنثروبيك كانت تأمل أن يؤدي تبني هذه السياسة إلى إلهام أو خجل الشركات الأخرى للقيام بالمثل. وقد أطلق على هذه العملية اسم “السباق إلى القمة”. وكان المتوقع أن تجسيد مثل هذه المبادئ من شأنه أن يساعد في التأثير على اللوائح التنظيمية على مستوى الصناعة والتي تضع حدودًا للفوضى التي يمكن أن يسببها الذكاء الاصطناعي.
في البداية، بدا هذا النهج واعدا. اعتمد كل من DeepMind وOpenAI جوانب من إطار عمل Anthropic. في الآونة الأخيرة، مع تضخم دولارات الاستثمار، زادت المنافسة بين مختبرات الذكاء الاصطناعي، وبدأت احتمالات التنظيم الفيدرالي تبدو بعيدة المنال، واعترفت شركة أنثروبيك بأن سياسة التوسع المسؤول كانت ناقصة. ولم تخلق العتبات الإجماع حول مخاطر الذكاء الاصطناعي الذي كانت تأمل في تحقيقه. وكما أشارت الشركة في منشور على مدونتها، “لقد تحولت بيئة السياسات نحو إعطاء الأولوية للقدرة التنافسية للذكاء الاصطناعي والنمو الاقتصادي، في حين أن المناقشات الموجهة نحو السلامة لم تكتسب بعد زخمًا ذا معنى على المستوى الفيدرالي”.
وفي الوقت نفسه، أصبحت المنافسة بين شركات الذكاء الاصطناعي أكثر شراسة. بدلاً من السباق نحو القمة، يبدو التنافس القائم على الذكاء الاصطناعي أشبه بنسخة عارية من King of the Mountain. عندما قام البنتاغون بإبعاد الأنثروبيك، سارعت شركة OpenAI إلى سد الفجوة من خلال عقد وزارة الدفاع الخاص بها. أصر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، على أنه دخل في صفقته المتسرعة مع البنتاغون لتخفيف الضغط على Anthropic، لكن Amodei لم يكن لديه أي منها. وقال أمودي في مذكرة داخلية: “سام يحاول تقويض موقفنا بينما يبدو أنه يدعمه”. “إنه يحاول أن يجعل من الممكن للمسؤول أن يعاقبنا من خلال تقويض دعمنا العام.” (اعتذر أمودي لاحقًا عن لهجته في الرسالة).










