افتح ملخص المحرر مجانًا
رولا خلف، محررة الفايننشال تايمز، تختار قصصها المفضلة في هذه النشرة الأسبوعية.
قالت شركة OpenAI إنها بدأت تدريب الجيل التالي من برامج الذكاء الاصطناعي، حتى مع تراجع الشركة الناشئة عن ادعاءاتها السابقة بأنها تريد بناء أنظمة “فائقة الذكاء” أكثر ذكاءً من البشر.
وقالت الشركة، ومقرها سان فرانسيسكو، يوم الثلاثاء إنها بدأت في إنتاج نظام جديد للذكاء الاصطناعي “لينقلنا إلى المستوى التالي من القدرات” وإن تطويره ستشرف عليه لجنة جديدة للسلامة والأمن.
ولكن في حين تتقدم شركة OpenAI في سباق تطوير الذكاء الاصطناعي، يبدو أن أحد كبار المسؤولين التنفيذيين في شركة OpenAI يتراجع عن تعليقات سابقة أدلى بها رئيسها التنفيذي سام ألتمان مفادها أنها تهدف في نهاية المطاف إلى بناء “ذكاء فائق” أكثر تقدما بكثير من البشر.
قالت آنا ماكانجو، نائبة رئيس شركة OpenAI للشؤون العالمية، لصحيفة فاينانشيال تايمز في مقابلة إن “مهمتها” هي بناء ذكاء اصطناعي عام قادر على “المهام المعرفية التي يمكن أن يفعلها الإنسان اليوم”.
“مهمتنا هي بناء الذكاء الاصطناعي العام؛ وقال ماكانجو: “لن أقول إن مهمتنا هي بناء الذكاء الفائق”. “الذكاء الفائق هو التكنولوجيا التي ستكون أكثر ذكاءً من البشر على الأرض”.
قال ألتمان لصحيفة “فاينانشيال تايمز” في تشرين الثاني (نوفمبر) إنه أمضى نصف وقته في البحث عن “كيفية بناء الذكاء الفائق”.
في الوقت نفسه الذي تحاول فيه شركة OpenAI درء المنافسة من شركة Gemini التابعة لشركة Google وشركة xAI الناشئة التابعة لشركة Elon Musk، تحاول OpenAI طمأنة صناع السياسات بأنها تعطي الأولوية لتطوير الذكاء الاصطناعي المسؤول بعد استقالة العديد من كبار الباحثين في مجال السلامة هذا الشهر.
وسيرأس لجنتها الجديدة ألتمان ومديرو مجلس الإدارة بريت تايلور وآدم دانجيلو ونيكول سيليجمان، وسوف يقدمون تقاريرهم إلى الأعضاء الثلاثة المتبقين في مجلس الإدارة.
ولم تذكر الشركة ما الذي يمكن أن تفعله متابعة GPT-4، الذي يشغل تطبيق ChatGPT الخاص بها والذي حصل على ترقية كبيرة قبل أسبوعين، أو متى سيتم إطلاقه.
في وقت سابق من هذا الشهر، قامت شركة OpenAI بحل ما يسمى بفريق المحاذاة الفائقة – المكلف بالتركيز على سلامة الأنظمة فائقة الذكاء – بعد استقالة إيليا سوتسكيفر، قائد الفريق والمؤسس المشارك للشركة.
وجاء رحيل سوتسكيفر بعد أشهر من قيادته انقلابًا مفاجئًا ضد ألتمان في نوفمبر والذي أثبت فشله في النهاية.
أدى إغلاق فريق Superalignment إلى مغادرة العديد من الموظفين للشركة، بما في ذلك جان لايكي، وهو باحث كبير آخر في مجال سلامة الذكاء الاصطناعي.
وشدد ماكانجو على أن العمل على “الإمكانيات طويلة المدى” للذكاء الاصطناعي لا يزال قيد التنفيذ “حتى لو كانت نظرية”.
وأضاف ماكانجو: “الذكاء الاصطناعي العام غير موجود بعد”، وقال إن مثل هذه التكنولوجيا لن يتم إطلاقها إلا بعد أن تصبح آمنة.
التدريب هو الخطوة الأساسية في كيفية تعلم نموذج الذكاء الاصطناعي، بالاعتماد على حجم ضخم من البيانات والمعلومات المقدمة له. وبعد استيعاب البيانات وتحسين أدائه، يتم بعد ذلك التحقق من صحة النموذج واختباره قبل نشره في المنتجات أو التطبيقات.
تعني هذه العملية الطويلة والتقنية للغاية أن نموذج OpenAI الجديد قد لا يصبح منتجًا ملموسًا لعدة أشهر.
شارك في التغطية مادوميتا مورجيا في لندن