استخدام روبوتات الدردشة المدعمة بالذكاء الاصطناعي حتى ولو لمدة 10 دقائق فقط قد يكون لها تأثير سلبي صادم على قدرة الناس على التفكير وحل المشكلات، وفقًا لدراسة جديدة أجراها باحثون في جامعة كارنيجي ميلون، ومعهد ماساتشوستس للتكنولوجيا، وأكسفورد، وجامعة كاليفورنيا في لوس أنجلوس.

كلف الباحثون الأشخاص بحل مسائل مختلفة، بما في ذلك الكسور البسيطة وفهم القراءة، من خلال منصة على الإنترنت دفعت لهم المال مقابل عملهم. لقد أجروا ثلاث تجارب، شملت كل منها عدة مئات من الأشخاص. تم منح بعض المشاركين إمكانية الوصول إلى مساعد الذكاء الاصطناعي القادر على حل المشكلة بشكل مستقل. وعندما تم إبعاد مساعد الذكاء الاصطناعي فجأة، كان هؤلاء الأشخاص أكثر عرضة للتخلي عن المشكلة أو الخطأ في إجاباتهم. تشير الدراسة إلى أن الاستخدام الواسع النطاق للذكاء الاصطناعي قد يعزز الإنتاجية على حساب تطوير المهارات الأساسية لحل المشكلات.

يقول ميشيل باكر، الأستاذ المساعد في معهد ماساتشوستس للتكنولوجيا المشارك في الدراسة: “الخلاصة ليست أننا يجب أن نحظر الذكاء الاصطناعي في التعليم أو أماكن العمل”. “من الواضح أن الذكاء الاصطناعي يمكن أن يساعد الناس على الأداء بشكل أفضل في الوقت الحالي، ويمكن أن يكون ذلك ذا قيمة. ولكن يجب أن نكون أكثر حذراً بشأن نوع المساعدة التي يقدمها الذكاء الاصطناعي، ومتى.”

التقيت مؤخرًا مع باكر، الذي يتمتع بشعر فوضوي وابتسامة عريضة، في حرم معهد ماساتشوستس للتكنولوجيا. أصله من هولندا، وعمل سابقًا في Google DeepMind في لندن. أخبرني أن مقالة مشهورة حول الطريقة التي قد يؤدي بها الذكاء الاصطناعي إلى إضعاف البشر بمرور الوقت، ألهمته للتفكير في كيف يمكن للتكنولوجيا أن تؤدي بالفعل إلى تآكل قدرات الناس. يجعل المقال قراءة قاتمة بعض الشيء، لأنه يشير إلى أن عدم التمكين أمر لا مفر منه. ومع ذلك، ربما يجب أن يكون اكتشاف كيف يمكن للذكاء الاصطناعي مساعدة الناس على تطوير قدراتهم العقلية جزءًا من كيفية توافق النماذج مع القيم الإنسانية.

يقول لي باكر: “إنه في الأساس سؤال معرفي، يتعلق بالمثابرة والتعلم وكيفية استجابة الناس للصعوبة”. “أردنا أن نأخذ هذه المخاوف الأوسع نطاقًا بشأن التفاعل طويل الأمد بين الإنسان والذكاء الاصطناعي ودراستها في بيئة تجريبية خاضعة للرقابة.”

يقول باكر إن الدراسة الناتجة تبدو مثيرة للقلق بشكل خاص، لأن رغبة الشخص في الاستمرار في حل المشكلات أمر بالغ الأهمية لاكتساب مهارات جديدة، كما تتنبأ بقدرته على التعلم بمرور الوقت.

يقول باكر إنه قد يكون من الضروري إعادة التفكير في كيفية عمل أدوات الذكاء الاصطناعي، بحيث تعطي النماذج أحيانًا الأولوية لتعلم الشخص على حل مشكلة ما، كما هو الحال مع المعلم البشري الجيد. يقول باكر: “قد يكون للأنظمة التي تقدم إجابات مباشرة تأثيرات طويلة المدى مختلفة تمامًا عن الأنظمة التي تدعم المستخدم أو تدربه أو تتحدىه”. ومع ذلك فهو يعترف بأن الموازنة بين هذا النوع من النهج “الأبوي” قد تكون صعبة.

تفكر شركات الذكاء الاصطناعي بالفعل في التأثيرات الأكثر دقة التي يمكن أن تحدثها نماذجها على المستخدمين. إن تملق بعض النماذج – أو مدى احتمالية اتفاقها مع المستخدمين ورعايتهم – هو أمر سعت شركة OpenAI إلى تخفيف حدته باستخدام الإصدارات الأحدث من GPT.

إن وضع الكثير من الثقة في الذكاء الاصطناعي قد يبدو مشكلة خاصة عندما لا تعمل الأدوات كما تتوقع. لا يمكن التنبؤ بأنظمة الذكاء الاصطناعي الوكيل بشكل خاص لأنها تقوم بالأعمال المعقدة بشكل مستقل ويمكن أن تؤدي إلى أخطاء غريبة. يجعلك تتساءل عما يفعله كلود كود وكوديكس بمهارات المبرمجين الذين قد يحتاجون أحيانًا إلى إصلاح الأخطاء التي يقدمونها.

لقد تلقيت مؤخرًا درسًا حول خطورة تفريغ التفكير النقدي لصالح الذكاء الاصطناعي بنفسي. لقد كنت أستخدم OpenClaw (مع Codex بداخله) كمساعد يومي، ووجدته جيدًا بشكل ملحوظ في حل مشكلات التكوين على Linux. ومع ذلك، في الآونة الأخيرة، بعد استمرار انقطاع اتصال Wi-Fi، اقترح مساعد الذكاء الاصطناعي الخاص بي تشغيل سلسلة من الأوامر لتعديل اتصال السائق ببطاقة Wi-Fi. وكانت النتيجة جهازًا رفض التشغيل مهما فعلت.

ربما، بدلاً من مجرد محاولة حل المشكلة بالنسبة لي، كان ينبغي لـ OpenClaw أن يتوقف مؤقتًا ليعلمني كيفية حل المشكلة بنفسي. ونتيجة لذلك، ربما أصبح لدي جهاز كمبيوتر وعقل أكثر قدرة.


هذه طبعة من ويل نايت النشرة الإخبارية لمختبر الذكاء الاصطناعي. قراءة النشرات الإخبارية السابقة هنا.

شاركها.
اترك تعليقاً

Exit mobile version