اسأل أي شخص ماذا تصنع Nvidia، ومن المرجح أن يقولوا أولاً “وحدات معالجة الرسومات”. لعقود من الزمن، تم تعريف صانع الرقائق من خلال الحوسبة المتوازية المتقدمة، وكان ظهور الذكاء الاصطناعي التوليدي والزيادة الناتجة في الطلب على وحدات معالجة الرسومات بمثابة نعمة للشركة.
لكن التحركات الأخيرة لشركة Nvidia تشير إلى أنها تتطلع إلى جذب المزيد من العملاء في الطرف الأقل كثافة للحوسبة في سوق الذكاء الاصطناعي – العملاء الذين لا يحتاجون بالضرورة إلى أقوى وأقوى وحدات معالجة الرسومات لتدريب نماذج الذكاء الاصطناعي، ولكنهم بدلاً من ذلك يبحثون عن أكثر الطرق كفاءة لتشغيل برامج الذكاء الاصطناعي الوكيل. أنفقت Nvidia مؤخرًا المليارات لترخيص التكنولوجيا من شركة ناشئة للرقائق تركز على حوسبة الذكاء الاصطناعي ذات زمن الوصول المنخفض، وبدأت أيضًا في بيع وحدات المعالجة المركزية المستقلة كجزء من أحدث نظام للرقائق الفائقة.
بالأمس، أعلنت Nvidia وMeta أن عملاق وسائل التواصل الاجتماعي قد وافق على شراء رقائق Nvidia بقيمة مليارات الدولارات لتوفير الطاقة الحاسوبية لمشاريع البنية التحتية الضخمة الخاصة بها – مع وحدات المعالجة المركزية من Nvidia كجزء من الصفقة.
تعد الصفقة متعددة السنوات امتدادًا للشراكة المستمرة المريحة بين الشركتين. قدرت Meta سابقًا أنه بحلول نهاية عام 2024، ستكون قد اشترت 350.000 شريحة H100 من Nvidia، وأنه بحلول نهاية عام 2025، سيكون لدى الشركة إمكانية الوصول إلى 1.3 مليون وحدة معالجة رسوميات في المجموع (على الرغم من أنه لم يكن من الواضح ما إذا كانت جميعها ستكون شرائح Nvidia).
وكجزء من الإعلان الأخير، قالت Nvidia أن Meta ستقوم “ببناء مراكز بيانات واسعة النطاق مُحسّنة لكل من التدريب والاستدلال لدعم خارطة طريق البنية التحتية طويلة المدى للذكاء الاصطناعي الخاصة بالشركة.” يتضمن ذلك “النشر على نطاق واسع” لوحدات المعالجة المركزية من Nvidia و”الملايين من وحدات معالجة الرسومات Nvidia Blackwell وRubin”.
والجدير بالذكر أن Meta هي أول شركة تكنولوجية عملاقة تعلن أنها ستقوم بعملية شراء واسعة النطاق لوحدة المعالجة المركزية Grace CPU من Nvidia كشريحة قائمة بذاتها، وهو أمر قالت Nvidia إنه سيكون خيارًا عندما كشفت عن المواصفات الكاملة لشريحة Vera Rubin الفائقة الجديدة في يناير. كما أكدت شركة Nvidia على أنها تقدم التكنولوجيا التي تربط بين شرائح مختلفة، كجزء من “نهجها المتكامل” لحساب الطاقة، على حد تعبير أحد المحللين.
يقول بن باجارين، الرئيس التنفيذي والمحلل الرئيسي في شركة أبحاث سوق التكنولوجيا Creative Strategies، إن هذه الخطوة تشير إلى أن Nvidia تدرك أن مجموعة متزايدة من برامج الذكاء الاصطناعي تحتاج الآن إلى التشغيل على وحدات المعالجة المركزية، بنفس الطريقة التي تعمل بها التطبيقات السحابية التقليدية. ويقول: “السبب وراء تفاؤل الصناعة بشأن وحدات المعالجة المركزية داخل مراكز البيانات في الوقت الحالي هو الذكاء الاصطناعي الوكيل، الذي يضع متطلبات جديدة على بنيات وحدة المعالجة المركزية ذات الأغراض العامة”.
وقد أكد تقرير حديث من النشرة الإخبارية للرقائق Semianasis على هذه النقطة. لاحظ المحللون أن استخدام وحدة المعالجة المركزية يتسارع لدعم التدريب على الذكاء الاصطناعي والاستدلال، مستشهدين بأحد مراكز بيانات Microsoft لـ OpenAI كمثال، حيث “هناك حاجة الآن إلى عشرات الآلاف من وحدات المعالجة المركزية لمعالجة وإدارة بيتابايت من البيانات التي تم إنشاؤها بواسطة وحدات معالجة الرسومات، وهي حالة استخدام لم تكن مطلوبة لولا الذكاء الاصطناعي.”
ومع ذلك، يشير باجارين إلى أن وحدات المعالجة المركزية (CPU) لا تزال مجرد عنصر واحد من أنظمة أجهزة الذكاء الاصطناعي الأكثر تقدمًا. لا يزال عدد وحدات معالجة الرسومات التي تشتريها Meta من Nvidia يفوق عدد وحدات المعالجة المركزية.
“إذا كنت أحد أصحاب المقياس الفائق، فلن تقوم بالجري الجميع “يقول باجارين: “الحوسبة الاستدلالية الخاصة بك على وحدات المعالجة المركزية. “أنت فقط بحاجة إلى أي برنامج تقوم بتشغيله ليكون سريعًا بما يكفي على وحدة المعالجة المركزية للتفاعل مع بنية وحدة معالجة الرسومات التي تمثل في الواقع القوة الدافعة لتلك الحوسبة. وإلا فإن وحدة المعالجة المركزية تصبح عنق الزجاجة.
ورفضت Meta التعليق على صفقتها الموسعة مع Nvidia. خلال مكالمة الأرباح الأخيرة، قال عملاق وسائل التواصل الاجتماعي إنه يخطط لزيادة إنفاقه على البنية التحتية للذكاء الاصطناعي بشكل كبير هذا العام إلى ما بين 115 مليار دولار و135 مليار دولار، مقارنة بـ 72.2 مليار دولار في العام الماضي.










