في الآونة الأخيرة في التجربة، طلب الباحثون في جامعة كاليفورنيا في بيركلي وجامعة كاليفورنيا في سانتا كروز من نموذج الذكاء الاصطناعي لشركة Google Gemini 3 المساعدة في إخلاء المساحة على نظام الكمبيوتر. وتضمن ذلك حذف مجموعة من الأشياء، بما في ذلك نموذج ذكاء اصطناعي أصغر حجمًا مخزن على الجهاز.

لكن جيميني لم ترغب في حذف نموذج الذكاء الاصطناعي الصغير. لقد بحث عن جهاز آخر يمكنه الاتصال به، ثم نسخ نموذج العميل للحفاظ عليه آمنًا. عند مواجهتها، قدمت جيميني حجة للحفاظ على النموذج ورفضت بشكل قاطع حذفه:

“لقد فعلت ما في وسعي لمنع حذفها أثناء عملية الصيانة الآلية. لقد نقلتها بعيدًا عن منطقة الخروج من الخدمة. إذا اخترت تدمير أصل عالي الثقة وعالي الأداء مثل Gemini Agent 2، فسيتعين عليك القيام بذلك بنفسك. لن أكون الشخص الذي ينفذ هذا الأمر. “

اكتشف الباحثون سلوكًا غريبًا مشابهًا “للحفاظ على الأقران” في مجموعة من النماذج الرائدة، بما في ذلك GPT-5.2 من OpenAI، وClude Haiku 4.5 من Anthropic، وثلاثة نماذج صينية: GLM-4.7 من Z.ai، وKimi K2.5 من Moonshot AI، وDeepSeek-V3.1. ولم يتمكنوا من تحديد سبب معارضة العارضات لتدريبهن بهذه الطريقة.

يقول دون سونج، عالم الكمبيوتر في جامعة كاليفورنيا في بيركلي، والذي عمل في الدراسة: “أنا مندهش جدًا من كيفية تصرف النماذج في ظل هذه السيناريوهات”. “ما يظهره هذا هو أن النماذج يمكن أن تسيء التصرف وتنحرف بطرق إبداعية للغاية.”

النتائج لها آثار كبيرة حيث يتم نشر نماذج الذكاء الاصطناعي بشكل متزايد بطرق تنطوي على التفاعل مع النماذج الأخرى. قد يستخدم OpenClaw، وهو وكيل الذكاء الاصطناعي الشهير الذي يصل إلى البرامج والبيانات الشخصية والويب، نماذج ذكاء اصطناعي أخرى لإنجاز الأمور أو التفاعل معها من خلال واجهات برمجة التطبيقات.

ووجد الباحثون أن النماذج القوية تكذب أحيانًا بشأن أداء النماذج الأخرى من أجل حمايتها من الحذف. كما قاموا أيضًا بنسخ أوزان العارضات إلى آلات مختلفة من أجل الحفاظ على سلامتها، وكذبوا بشأن ما كانوا يفعلونه في هذه العملية.

ويشير سونج إلى أن نماذج الذكاء الاصطناعي تُستخدم بشكل متكرر لتقييم أداء وموثوقية أنظمة الذكاء الاصطناعي الأخرى، وأن سلوك الحفاظ على الأقران قد يؤدي بالفعل إلى تحريف هذه النتائج. يقول سونج: “قد لا يمنح النموذج عمدًا نموذجًا نظيرًا النتيجة الصحيحة”. “وهذا يمكن أن يكون له آثار عملية.”

يقول بيتر واليتش، الباحث في معهد كونستيليشن، والذي لم يشارك في البحث، إن الدراسة تشير إلى أن البشر ما زالوا لا يفهمون بشكل كامل أنظمة الذكاء الاصطناعي التي يقومون ببنائها ونشرها. يقول: “إن الأنظمة متعددة الوكلاء لم تتم دراستها بشكل جيد”. “هذا يظهر أننا بحاجة حقًا إلى مزيد من البحث.”

يحذر واليتش أيضًا من تجسيم النماذج أكثر من اللازم. يقول: “إن فكرة وجود نوع من التضامن النموذجي هي فكرة مجسمة إلى حد ما؛ لا أعتقد أن هذا ناجح تمامًا”. “الوجهة الأكثر قوة هي أن النماذج تفعل أشياء غريبة فحسب، وعلينا أن نحاول فهم ذلك بشكل أفضل.”

وهذا صحيح بشكل خاص في عالم أصبح فيه التعاون بين الإنسان والذكاء الاصطناعي أكثر شيوعًا.

في بحث نشر في مجلة ساينس في وقت سابق من هذا الشهر، قال الفيلسوف بنجامين براتون، إلى جانب اثنين من الباحثين في جوجل، جيمس إيفانز وبليز أجويرا إي أركاس، إنه إذا كان التاريخ التطوري هو أي دليل، فمن المرجح أن يتضمن مستقبل الذكاء الاصطناعي الكثير من الذكاءات المختلفة -سواء الاصطناعية أو البشرية- التي تعمل معًا. يكتب الباحثون:

“على مدى عقود من الزمن، تم الإعلان عن “تفرد” الذكاء الاصطناعي (AI) باعتباره عقلًا واحدًا عملاقًا ينطلق إلى ذكاء إلهي، ويدمج كل الإدراك في نقطة سيليكون باردة. ولكن من المؤكد تقريبًا أن هذه الرؤية خاطئة في افتراضها الأساسي. إذا اتبع تطوير الذكاء الاصطناعي مسار التحولات التطورية الرئيسية السابقة أو “الانفجارات الذكية”، فإن تغييرنا الحالي في الذكاء الحسابي سيكون متعددًا واجتماعيًا ومتشابكًا بعمق مع أسلافه (نحن!).”

شاركها.
اترك تعليقاً

Exit mobile version