الذكاء الاصطناعي الكبير لقد وعدتنا الشركات بأن عام 2025 سيكون “عام عملاء الذكاء الاصطناعي”. اتضح أنه عام نتحدث عنه عملاء الذكاء الاصطناعي، والبدء في تنفيذ تلك اللحظة التحويلية حتى عام 2026 أو ربما في وقت لاحق. ولكن ماذا لو كانت الإجابة على السؤال “متى ستصبح حياتنا آلية بالكامل بواسطة روبوتات الذكاء الاصطناعي التوليدية التي تؤدي مهامنا نيابةً عنا وتدير العالم بشكل أساسي؟” هو، مثل ذلك الكارتون الذي نشرته مجلة نيويوركر، “ماذا عن عدم القيام بذلك أبدًا؟”
كانت هذه في الأساس رسالة ورقة بحثية نُشرت دون ضجة كبيرة قبل بضعة أشهر، في منتصف عام مبالغ فيه لـ “الذكاء الاصطناعي العميل”. بعنوان “محطات الهلوسة: في بعض القيود الأساسية لنماذج اللغة القائمة على المحولات”، يهدف إلى إظهار رياضيا أن “الماجستير في القانون غير قادرين على تنفيذ المهام الحسابية والوكيلية بما يتجاوز تعقيد معين”. على الرغم من أن العلم يتجاوز قدراتي، إلا أن المؤلفين – مدير تكنولوجيا سابق في SAP والذي درس الذكاء الاصطناعي على يد أحد العقول المؤسسين لهذا المجال، جون مكارثي، وابنه المراهق المعجزة – قد ثقبوا رؤية الجنة الوكيلة بيقين الرياضيات. ويقولون إنه حتى نماذج الاستدلال التي تتجاوز عملية التنبؤ بالكلمات في ماجستير إدارة الأعمال، لن تحل المشكلة.
قال لي فيشال سيكا، الأب: “لا توجد طريقة يمكن الاعتماد عليها”. بعد مسيرة مهنية تضمنت، بالإضافة إلى SAP، فترة عمل كرئيس تنفيذي لشركة Infosys وعضو في مجلس إدارة Oracle، يرأس حاليًا شركة ناشئة لخدمات الذكاء الاصطناعي تسمى Vianai. “هل يجب علينا أن ننسى عملاء الذكاء الاصطناعي الذين يديرون محطات الطاقة النووية؟” أنا أسأل. يقول: “بالضبط”. ربما يمكنك جعله يقدم بعض الأوراق أو شيء ما لتوفير الوقت، ولكن قد تضطر إلى الاستسلام لبعض الأخطاء.
لكن صناعة الذكاء الاصطناعي تختلف. لسبب واحد، كان النجاح الكبير في الذكاء الاصطناعي هو البرمجة، والتي انطلقت العام الماضي. في هذا الأسبوع فقط في دافوس، أعلن ديميس هاسابيس، رئيس قسم الذكاء الاصطناعي في جوجل الحائز على جائزة نوبل، عن تحقيق اختراقات في تقليل الهلوسة، ويدفع أصحاب التوسع الكبير والشركات الناشئة على حد سواء إلى سرد الوكيل. الآن لديهم بعض النسخ الاحتياطي. أعلنت شركة ناشئة تدعى Harmonic عن تحقيق إنجاز كبير في مجال ترميز الذكاء الاصطناعي الذي يعتمد أيضًا على الرياضيات، ويتصدر المعايير مصداقية.
تدعي شركة Harmonic، التي شارك في تأسيسها الرئيس التنفيذي لشركة Robinhood فلاد تينيف وتودور أخيم، عالم الرياضيات المتدرب في جامعة ستانفورد، أن هذا التحسين الأخير لمنتجها المسمى أرسطو (لا يوجد غطرسة هناك!) هو إشارة إلى أن هناك طرقًا لضمان مصداقية أنظمة الذكاء الاصطناعي. يقول أخيم: “هل محكوم علينا أن نكون في عالم يولد فيه الذكاء الاصطناعي نفايات ولا يستطيع البشر التحقق منه حقًا؟ سيكون هذا عالمًا مجنونًا”. الحل التوافقي هو استخدام الأساليب الرسمية للتفكير الرياضي للتحقق من مخرجات LLM. وعلى وجه التحديد، فهو يقوم بتشفير المخرجات بلغة البرمجة Lean، المعروفة بقدرتها على التحقق من الترميز. من المؤكد أن تركيز شركة هارمونيك حتى الآن كان محدودًا، فمهمتها الرئيسية هي السعي وراء “الذكاء الرياضي الفائق”، والبرمجة هي امتداد عضوي إلى حد ما. أشياء مثل المقالات التاريخية – التي لا يمكن التحقق منها رياضيا – تتجاوز حدودها. في الوقت الراهن.
ومع ذلك، لا يبدو أن أخيم يعتقد أن سلوك العميل الموثوق به يمثل مشكلة بقدر ما يعتقد بعض النقاد. يقول: “أود أن أقول إن معظم النماذج في هذه المرحلة تتمتع بمستوى الذكاء الخالص المطلوب للتفكير من خلال حجز خط سير الرحلة”.
كلا الجانبين على حق، أو ربما على نفس الجانب. فمن ناحية، يتفق الجميع على أن الهلوسة ستظل حقيقة مزعجة. وفي ورقة بحثية نُشرت في سبتمبر الماضي، كتب علماء OpenAI: “على الرغم من التقدم الكبير، إلا أن الهلوسة لا تزال تعصف بالمجال، ولا تزال موجودة في أحدث النماذج”. لقد أثبتوا هذا الادعاء غير السعيد من خلال مطالبة ثلاثة نماذج، بما في ذلك ChatGPT، بتقديم عنوان أطروحة المؤلف الرئيسي. قام الثلاثة بتأليف عناوين مزيفة وجميعهم أخطأوا في الإبلاغ عن سنة النشر. وفي إحدى المدونات الخاصة بالبحث، ذكرت شركة OpenAI بشكل كئيب أنه في نماذج الذكاء الاصطناعي، “لن تصل الدقة أبدًا إلى 100 بالمائة”.










