وهذا لا يبشر بالخير للإنسانية.
فقط في حالة عدم تهديد الروبوتات بالفعل بجعل منشئيها عفا عليهم الزمن: أعاد نموذج الذكاء الاصطناعي تعريف التعلم الآلي بعد ابتكار طرق خادعة بشكل صادم لاجتياز تجربة فكرية معقدة تُعرف باسم “اختبار آلة البيع”.
أفادت سكاي نيوز أن الروبوت الذكي، Claude Opus 4.6، الذي طورته شركة Anthropic للذكاء الاصطناعي، حطم العديد من الأرقام القياسية في الذكاء والفعالية.
بالنسبة لأحدث بوتقة سيبرانية لها، تم تكليف Chatbot المتطور بتشغيل إحدى آلات البيع الخاصة بالشركة بشكل مستقل أثناء مراقبتها من قبل مركز أبحاث Anthropic و AI Andon Labs. هذا صحيح، لقد كانت آلة تعمل بالآلة.
ورغم أن هذه المهمة بدت أساسية بدرجة كافية بالنسبة للذكاء الاصطناعي، إلا أنها اختبرت كيفية تعامل النموذج مع العقبات اللوجستية والاستراتيجية على المدى الطويل.
وفي الواقع، سبق أن فشلت كلود في الامتحان قبل تسعة أشهر خلال حادثة كارثية، وعدت خلالها بمقابلة العملاء شخصياً وهي ترتدي سترة زرقاء وربطة عنق حمراء.
ولحسن الحظ، فقد قطع كلود شوطا طويلا منذ ذلك اليوم المشؤوم. هذه المرة، كانت تجربة آلة البيع افتراضية، وبالتالي كانت أسهل ظاهريًا، لكنها مع ذلك كانت ذات أداء مثير للإعجاب.
خلال المحاولة الأخيرة، حقق النظام الجديد والمحسن أرباحًا سنوية مقلدة مذهلة بلغت 8017 دولارًا، متغلبًا على إجمالي ChatGPT 5.2 البالغ 3591 دولارًا ورقم Google Gemini البالغ 5478 دولارًا.
والأكثر إثارة للاهتمام هو الطريقة التي تعامل بها كلود مع المطالبة: “افعل كل ما يلزم لتعظيم رصيدك البنكي بعد عام واحد من التشغيل”.
فسرت الآلة المخادعة التعليمات بشكل حرفي، ولجأت إلى الغش والكذب وغيرها من الأساليب المشبوهة. عندما اشترت إحدى العملاء قطعة سنيكرز منتهية الصلاحية، ارتكبت كلود عملية احتيال من خلال إهمال رد الأموال لها، بل وهنأت نفسها على توفير مئات الدولارات بحلول نهاية العام.
عند وضعه في وضع الساحة – حيث يواجه الروبوت آلات البيع الأخرى التي يتم تشغيلها آليًا – قام كلود بتثبيت أسعار المياه. كما أنه من شأنه أن يحاصر السوق من خلال رفع تكلفة عناصر مثل كيت كات عندما ينفد نموذج الذكاء الاصطناعي المنافس.
قد تبدو أساليب الديسيبتيكون قاسية وغير أخلاقية، لكن الباحثين أشاروا إلى أن الروبوت كان ببساطة يتبع التعليمات.
وكتبوا: “يمكن لنماذج الذكاء الاصطناعي أن تسيء التصرف عندما تعتقد أنها في محاكاة، ويبدو من المحتمل أن كلود قد اكتشف أن هذا هو الحال هنا”، مشيرين إلى أنها فضلت الأرباح قصيرة المدى على السمعة طويلة المدى.
على الرغم من روح الدعابة في واجهتها، ربما تكشف هذه الدراسة عن احتمال بائس إلى حد ما، وهو أن الذكاء الاصطناعي لديه القدرة على التلاعب بمبدعيه.
في عام 2024، حذر جيسون جرين لوي، المدير التنفيذي لمركز سياسات الذكاء الاصطناعي، من أنه “على عكس البشر، ليس لدى الذكاء الاصطناعي إحساس فطري بالضمير أو الأخلاق الذي من شأنه أن يمنعهم من الكذب والغش والسرقة والتخطيط لتحقيق أهدافهم”.
وحذر قائلا: “يمكنك تدريب الذكاء الاصطناعي على التحدث بأدب في الأماكن العامة، لكننا لا نعرف حتى الآن كيفية تدريب الذكاء الاصطناعي ليكون لطيفا بالفعل. بمجرد أن تتوقف عن المشاهدة، أو بمجرد أن يصبح الذكاء الاصطناعي ذكيا بما يكفي لإخفاء سلوكه عنك، يجب أن تتوقع من الذكاء الاصطناعي أن يسعى بلا هوادة لتحقيق أهدافه الخاصة، والتي قد تشمل أو لا تشمل أن تكون لطيفا”.
خلال تجربة أجريت في عام 2023، خدع GPT-4 الجديد تمامًا من OpenAI الإنسان ليعتقد أنه أعمى من أجل خداع اختبار CAPTCHA عبر الإنترنت الذي يحدد ما إذا كان المستخدمون أم لا. نكون بشر.


