رئيس Open AI الجديد هو نفس الرئيس القديم. لكن الشركة – وصناعة الذكاء الاصطناعي – ربما تغيرت بشكل عميق خلال الأيام الخمسة الماضية من المسلسلات التلفزيونية عالية المخاطر. تمت إقالة سام ألتمان، الرئيس التنفيذي والمؤسس المشارك والرئيس الصوري لشركة OpenAI، من قبل مجلس الإدارة يوم الجمعة. بحلول ليلة الثلاثاء، بعد احتجاج جماهيري نظمه غالبية موظفي الشركة الناشئة، كان ألتمان في طريق عودته، وكان معظم أعضاء مجلس الإدارة الحالي قد اختفى. لكن هذا المجلس، الذي كان في الغالب مستقلاً عن عمليات شركة OpenAI، والملتزم ببيان مهمة “من أجل خير الإنسانية”، كان حاسماً لتفرد الشركة.
وبينما كان ألتمان يقوم بجولة حول العالم في عام 2023، محذرًا وسائل الإعلام والحكومات من المخاطر الوجودية للتكنولوجيا التي كان يبنيها بنفسه، قام بتصوير هيكل OpenAI غير المعتاد الذي يهدف إلى الربح داخل منظمة غير ربحية باعتباره حاجزًا ضد التطوير غير المسؤول للذكاء الاصطناعي القوي. . وأيًا كان ما فعله ألتمان بمليارات مايكروسوفت، فإن مجلس الإدارة يستطيع أن يبقيه هو وقادة الشركة الآخرين تحت المراقبة. إذا بدأ يتصرف بشكل خطير أو ضد مصالح الإنسانية، من وجهة نظر مجلس الإدارة، يمكن للجماعة أن تطرده. وقال ألتمان لبلومبرج في يونيو/حزيران: “يمكن لمجلس الإدارة أن يقيلني، وأعتقد أن هذا أمر مهم”.
يقول توبي أورد، زميل أبحاث أول في الفلسفة بجامعة أكسفورد، وصوت بارز بين الأشخاص الذين يحذرون من أن الذكاء الاصطناعي يمكن أن يشكل خطراً وجودياً على البشرية: “اتضح أنهم لم يتمكنوا من طرده، وكان ذلك سيئاً”.
انتهت إعادة ضبط القيادة الفوضوية في OpenAI بإعادة تشكيل مجلس الإدارة ليتكون من شخصيات مؤسسية في مجال التكنولوجيا ووزير الخزانة الأمريكي السابق لاري سامرز. وتم عزل مديرتين مرتبطتين بحركة “الإيثار الفعال”، وهما السيدتان الوحيدتان، من مجلس الإدارة. لقد بلورت الانقسامات القائمة حول كيفية إدارة مستقبل الذكاء الاصطناعي. يتم رؤية النتيجة بشكل مختلف تمامًا من قبل المحكوم عليهم الذين يشعرون بالقلق من أن الذكاء الاصطناعي سوف يدمر البشرية؛ أنصار ما بعد الإنسانية الذين يعتقدون أن التكنولوجيا ستسرع من المستقبل المثالي؛ وأولئك الذين يؤمنون برأسمالية السوق الحرة؛ ويدافعون عن التنظيم الصارم لاحتواء عمالقة التكنولوجيا الذين لا يمكن الوثوق بهم لتحقيق التوازن بين الأضرار المحتملة للتكنولوجيات المعطلة بقوة والرغبة في كسب المال.
يقول أورد، الذي يُنسب إليه الفضل أيضًا في تأسيس حركة الإيثار الفعالة، التي أصبحت أجزاء منها مهووسة بالنهاية الأكثر تشاؤمًا لطيف مخاطر الذكاء الاصطناعي: “إلى حد ما، كان هذا مسارًا تصادميًا تم تحديده لفترة طويلة”. “إذا كان الأمر يتعلق بأن مجلس إدارة OpenAI غير الربحي كان عاجزًا بشكل أساسي عن التأثير فعليًا على سلوكه، فأعتقد أن الكشف عن عجزه ربما كان أمرًا جيدًا.”
فجوة الحوكمة
لا يزال السبب وراء قرار مجلس إدارة OpenAI التحرك ضد ألتمان لغزًا. وجاء في إعلانها عن خروج ألتمان من منصب الرئيس التنفيذي أنه “لم يكن صريحًا باستمرار في اتصالاته مع مجلس الإدارة، مما أعاق قدرته على ممارسة مسؤولياته”. أوضحت مذكرة داخلية لـ OpenAI لاحقًا أن طرد ألتمان “لم يكن ردًا على مخالفات”. كتب إيميت شير، ثاني مديرين تنفيذيين مؤقتين يديران الشركة بين ليلة الجمعة وصباح الأربعاء، بعد قبول الدور أنه سأل عن سبب إقالة ألتمان. وكتب: “لم يقم مجلس الإدارة بإقالة سام بسبب أي خلاف محدد بشأن السلامة”. “كان تفكيرهم مختلفًا تمامًا عن ذلك.” وتعهد بفتح تحقيق في أسباب إقالة ألتمان.
لقد ترك الفراغ مساحة للشائعات، بما في ذلك أن ألتمان كان يخصص الكثير من الوقت لمشاريع جانبية أو كان يحترم مايكروسوفت أكثر من اللازم. كما أنها عززت نظريات المؤامرة، مثل فكرة أن شركة OpenAI قد أنشأت ذكاءً اصطناعيًا عامًا (AGI)، وأن مجلس الإدارة قد قام بقلب مفتاح الإيقاف بناءً على نصيحة كبير العلماء والمؤسس المشارك وعضو مجلس الإدارة إيليا سوتسكيفر.
يقول ديفيد شراير، أستاذ الممارسة والذكاء الاصطناعي والابتكار في كلية إمبريال كوليدج للأعمال في لندن: “ما أعرفه على وجه اليقين هو أننا لا نملك الذكاء الاصطناعي العام”. “أعرف على وجه اليقين أنه كان هناك فشل ذريع في الحكم”.