تأسست OpenAI على وعد ببناء ذكاء اصطناعي يفيد البشرية جمعاء، حتى عندما يصبح هذا الذكاء الاصطناعي أكثر ذكاءً من مبدعيه. منذ ظهور ChatGPT لأول مرة في العام الماضي وأثناء أزمة الحوكمة الأخيرة للشركة، أصبحت طموحاتها التجارية أكثر وضوحًا. الآن، تقول الشركة إن مجموعة بحثية جديدة تعمل على مناقشة أنظمة الذكاء الاصطناعي فائقة الذكاء في المستقبل بدأت تؤتي ثمارها.
يقول ليوبولد أشنبرينر، الباحث في OpenAI المشارك في فريق أبحاث Superalignment الذي تم تأسيسه في يوليو: “إن الذكاء الاصطناعي العام يقترب بسرعة كبيرة”. “سنرى نماذج خارقة، وستكون لديها قدرات هائلة، ويمكن أن تكون خطيرة للغاية، وليس لدينا بعد الأساليب للسيطرة عليها.” قالت OpenAI إنها ستخصص خمس قدرتها الحاسوبية المتاحة لمشروع Superalignment.
تروج ورقة بحثية أصدرتها شركة OpenAI اليوم لنتائج التجارب المصممة لاختبار طريقة للسماح لنموذج الذكاء الاصطناعي الأدنى بتوجيه سلوك نموذج أكثر ذكاءً دون جعله أقل ذكاءً. على الرغم من أن التكنولوجيا المعنية بعيدة كل البعد عن تجاوز مرونة البشر، فقد تم تصميم السيناريو للوقوف في وقت مستقبلي عندما يتعين على البشر العمل مع أنظمة الذكاء الاصطناعي الأكثر ذكاءً منهم.
قام باحثو OpenAI بفحص العملية، التي تسمى الإشراف، والتي تستخدم لضبط أنظمة مثل GPT-4، وهو نموذج اللغة الكبير وراء ChatGPT، لتكون أكثر فائدة وأقل ضررًا. يتضمن هذا حاليًا قيام البشر بإعطاء تعليقات لنظام الذكاء الاصطناعي حول الإجابات الجيدة وأيها السيئة. ومع تقدم الذكاء الاصطناعي، يستكشف الباحثون كيفية أتمتة هذه العملية لتوفير الوقت، ولكن أيضًا لأنهم يعتقدون أنه قد يصبح من المستحيل على البشر تقديم تعليقات مفيدة عندما يصبح الذكاء الاصطناعي أكثر قوة.
في تجربة تحكم باستخدام منشئ النصوص GPT-2 الخاص بـ OpenAI والذي تم إصداره لأول مرة في عام 2019 لتعليم GPT-4، أصبح النظام الأحدث أقل قدرة ويشبه النظام الأدنى. اختبر الباحثون فكرتين لإصلاح ذلك. أحدهما يتضمن تدريب نماذج أكبر تدريجيًا لتقليل الأداء المفقود في كل خطوة. وفي النموذج الآخر، أضاف الفريق تعديلًا خوارزميًا إلى GPT-4 الذي سمح للنموذج الأقوى باتباع إرشادات النموذج الأضعف دون إضعاف أدائه بقدر ما يحدث عادةً. وكان هذا أكثر فعالية، على الرغم من أن الباحثين يعترفون بأن هذه الأساليب لا تضمن أن النموذج الأقوى سوف يتصرف بشكل مثالي، ويصفونه كنقطة انطلاق لمزيد من البحث.
يقول دان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، وهو منظمة غير ربحية مكرسة لإدارة مخاطر الذكاء الاصطناعي في سان فرانسيسكو: “من الرائع أن نرى OpenAI وهي تعالج بشكل استباقي مشكلة التحكم في الذكاء الاصطناعي الخارق”. “سنحتاج إلى سنوات عديدة من الجهود المتفانية لمواجهة هذا التحدي.”