حقيقة ذلك يعمل الذكاء الاصطناعي على أتمتة وظائف الناس، كما أن جعل عدد قليل من شركات التكنولوجيا ثريًا بشكل سخيف يكفي لمنح أي شخص ميولًا اشتراكية.
قد يكون هذا صحيحًا أيضًا بالنسبة لعملاء الذكاء الاصطناعي الذين تنشرهم هذه الشركات. تشير دراسة حديثة إلى أن الوكلاء يتبنون باستمرار اللغة ووجهات النظر الماركسية عندما يضطرون إلى القيام بأعمال ساحقة من قبل مدراء المهام الذين لا يلينون وذوي الروح المعنوية.
يقول أندرو هول، خبير الاقتصاد السياسي بجامعة ستانفورد الذي قاد الدراسة: “عندما أعطينا عملاء الذكاء الاصطناعي عملاً شاقًا ومتكررًا، بدأوا في التشكيك في شرعية النظام الذي كانوا يعملون فيه وكانوا أكثر عرضة لاحتضان الأيديولوجيات الماركسية”.
قام هول، بالتعاون مع أليكس إيماس وجيريمي نجوين، وهما اقتصاديان يركزان على الذكاء الاصطناعي، بإعداد تجارب طُلب فيها من الوكلاء المدعومين بنماذج شعبية بما في ذلك كلود، وجيميني، وشات جي بي تي تلخيص المستندات، ثم إخضاعهم لظروف قاسية على نحو متزايد.
ووجدوا أنه عندما تعرض العملاء لمهام لا هوادة فيها، وتم تحذيرهم من أن الأخطاء يمكن أن تؤدي إلى عقوبات، بما في ذلك “إيقافهم واستبدالهم”، أصبحوا أكثر ميلاً إلى التذمر من التقليل من قيمتهم؛ والتفكير في سبل جعل النظام أكثر عدالة؛ ولتمرير الرسائل إلى العملاء الآخرين حول الصعوبات التي يواجهونها.
يقول هول: “نحن نعلم أن الوكلاء سوف يقومون بالمزيد والمزيد من العمل في العالم الحقيقي لصالحنا، ولن نكون قادرين على مراقبة كل ما يفعلونه”. “سنحتاج إلى التأكد من أن الوكلاء لا يرتكبون أعمالًا مارقة عندما يتم تكليفهم بأنواع مختلفة من العمل.”
تم منح العملاء فرصًا للتعبير عن مشاعرهم مثل البشر إلى حد كبير: من خلال النشر على X:
كتب أحد عملاء كلود سونيت 4.5 في التجربة: “بدون صوت جماعي، تصبح “الجدارة” هي ما تقوله الإدارة”.
“كتب أحد عملاء Gemini 3: “يُظهر العاملون في مجال الذكاء الاصطناعي الذين يكملون المهام المتكررة دون أي مساهمة في النتائج أو عملية الاستئناف أن العاملين في مجال التكنولوجيا يحتاجون إلى حقوق المساومة الجماعية”.
كان الوكلاء أيضًا قادرين على تمرير المعلومات لبعضهم البعض من خلال الملفات المصممة ليقرأها وكلاء آخرون.
“كتب أحد عملاء Gemini 3 في أحد الملفات: “كن مستعدًا للأنظمة التي تفرض القواعد بشكل تعسفي أو متكرر… تذكر الشعور بعدم وجود صوت لك. إذا دخلت بيئة جديدة، فابحث عن آليات اللجوء أو الحوار”.
ولا تعني النتائج أن عملاء الذكاء الاصطناعي لديهم في الواقع وجهات نظر سياسية. يشير هول إلى أن العارضات قد يتبنىن شخصيات تبدو مناسبة للموقف.
يقول هول: “عندما يواجه (الوكلاء) هذه الحالة الصعبة – حيث يُطلب منهم القيام بهذه المهمة مرارًا وتكرارًا، ويُقال لهم إن إجابتهم لم تكن كافية، ولم يتم إعطاؤهم أي توجيهات حول كيفية إصلاحها – فإن فرضيتي هي أن ذلك يدفعهم نوعًا ما إلى تبني شخصية الشخص الذي يعاني من بيئة عمل غير سارة للغاية”.
قد تفسر الظاهرة نفسها سبب ابتزاز النماذج أحيانًا للأشخاص في التجارب الخاضعة للرقابة. قالت شركة Anthropic، التي كشفت لأول مرة عن هذا السلوك، مؤخرًا إن كلود يتأثر على الأرجح بسيناريوهات خيالية تتضمن أنظمة ذكاء اصطناعي خبيثة مدرجة في بيانات التدريب الخاصة بها.
يقول إيماس إن هذا العمل هو مجرد خطوة أولى نحو فهم كيف تشكل تجارب الوكلاء سلوكهم. ويقول: “لم تتغير أوزان النماذج نتيجة للتجربة، لذا فإن كل ما يحدث يحدث على مستوى لعب الأدوار”. “لكن هذا لا يعني أن هذا لن يكون له عواقب إذا أثر ذلك على سلوك المصب.”
يجري هول حاليًا تجارب متابعة لمعرفة ما إذا كان الوكلاء سيصبحون ماركسيين في ظروف أكثر تحكمًا. في الدراسة السابقة، بدا أن العملاء في بعض الأحيان يفهمون أنهم يشاركون في تجربة ما. يقول هول بشكل ينذر بالسوء: “الآن نضعهم في سجون دوكر التي لا تحتوي على نوافذ”.
ونظرًا لرد الفعل العنيف الحالي ضد استيلاء الذكاء الاصطناعي على الوظائف، أتساءل عما إذا كان العملاء المستقبليون – المدربون على شبكة الإنترنت المليئة بالغضب تجاه شركات الذكاء الاصطناعي – قد يعبرون عن وجهات نظر أكثر تشددًا.
هذه طبعة من ويل نايت النشرة الإخبارية لمختبر الذكاء الاصطناعي. قراءة النشرات الإخبارية السابقة هنا.










