ميشال كوسينسكي هو عالم نفس متخصص في الأبحاث في جامعة ستانفورد ولديه خبرة في التعامل مع الموضوعات في الوقت المناسب. وهو يرى أن عمله لا يقتصر على تعزيز المعرفة فحسب، بل ينبه العالم إلى المخاطر المحتملة التي تشعلها عواقب أنظمة الكمبيوتر. تضمنت مشاريعه الأكثر شهرة تحليل الطرق التي اكتسب بها فيسبوك (المعروف الآن باسم ميتا) فهمًا عميقًا بشكل صادم لمستخدميه من كل الأوقات التي نقروا فيها على زر “أعجبني” على المنصة. لقد تحول الآن إلى دراسة الأشياء المدهشة التي يمكن للذكاء الاصطناعي القيام بها. لقد أجرى تجارب، على سبيل المثال، تشير إلى أن أجهزة الكمبيوتر يمكنها التنبؤ بالحياة الجنسية للشخص من خلال تحليل صورة رقمية لوجهه.

لقد تعرفت على كوسينسكي من خلال كتاباتي عن ميتا، وتواصلت معه مرة أخرى لمناقشة أحدث أبحاثه، التي نُشرت هذا الأسبوع في مجلة Proceedings of the National Academy of Sciences الخاضعة لمراجعة النظراء. استنتاجه مذهل. وهو يزعم أن النماذج اللغوية الكبيرة مثل OpenAI قد عبرت الحدود وتستخدم تقنيات مشابهة للفكر الفعلي، الذي كان يُنظر إليه ذات يوم على أنه عالم من لحم ودم فقط (أو على الأقل الثدييات). وعلى وجه التحديد، قام باختبار GPT-3.5 وGPT-4 من OpenAI لمعرفة ما إذا كانا قد أتقنا ما يُعرف باسم “نظرية العقل”. هذه هي قدرة الإنسان، التي تطورت في سنوات الطفولة، على فهم عمليات التفكير لدى البشر الآخرين. إنها مهارة مهمة. إذا لم يتمكن نظام الكمبيوتر من تفسير ما يفكر فيه الناس بشكل صحيح، فسوف يصبح فهمه للعالم ضعيفًا وسيخطئ في الكثير من الأشياء. إذا نماذج يفعل لديهم نظرية العقل، وهم على بعد خطوة واحدة من مطابقة القدرات البشرية وتجاوزها. وضع كوسينسكي ماجستير في القانون على المحك، ويقول الآن إن تجاربه تظهر أنه في GPT-4 على وجه الخصوص، نظرية القدرة الشبيهة بالعقل “ربما ظهرت كمنتج ثانوي غير مقصود لتحسين المهارات اللغوية لدى ماجستير في القانون … إنها تشير إلى ظهور المزيد من المهارات اللغوية”. الذكاء الاصطناعي القوي والماهر اجتماعيًا.

يرى كوسينسكي أن عمله في مجال الذكاء الاصطناعي هو ثمرة طبيعية لغوصه السابق في الإعجابات على فيسبوك. ويقول: “لم أكن أدرس الشبكات الاجتماعية حقًا، بل كنت أدرس البشر”. ويقول إنه عندما بدأت شركة OpenAI وGoogle في بناء أحدث نماذج الذكاء الاصطناعي التوليدية الخاصة بهما، اعتقدتا أنهما كانتا تدربانهما على التعامل مع اللغة في المقام الأول. “لكنهم في الواقع قاموا بتدريب نموذج العقل البشري، لأنه لا يمكنك التنبؤ بالكلمة التي سأقولها بعد ذلك دون نمذجة عقلي”.

يحرص كوسينسكي على عدم الادعاء بأن طلاب ماجستير القانون قد أتقنوا تمامًا نظرية العقل، حتى الآن. في تجاربه، قدم بعض المشكلات الكلاسيكية لروبوتات الدردشة، والتي تعاملوا مع بعضها بشكل جيد للغاية. ولكن حتى النموذج الأكثر تطوراً، GPT-4، فشل في ربع الحالات. وكتب أن النجاحات وضعت GPT-4 على مستوى الأطفال البالغين من العمر 6 سنوات. ليس سيئا، نظرا للحالة المبكرة للميدان. يكتب: “من خلال مراقبة التقدم السريع للذكاء الاصطناعي، يتساءل الكثيرون عما إذا كان الذكاء الاصطناعي قادرًا على تحقيق نظرية العقل (ToM) أو الوعي، ومتى”. إذا وضعنا جانبًا تلك الكلمة المشعة، فهذا كثير مما يمكن مضغه.

يقول لي: “إذا ظهرت نظرية العقل بشكل عفوي في تلك النماذج، فهذا يشير أيضًا إلى إمكانية ظهور قدرات أخرى بعد ذلك”. “يمكن أن يكونوا أفضل في تعليمنا والتأثير علينا والتلاعب بنا بفضل هذه القدرات.” إنه يشعر بالقلق من أننا لسنا مستعدين حقًا للحصول على ماجستير في القانون يفهم الطريقة التي يفكر بها البشر. خاصة إذا وصلوا إلى النقطة التي يفهمون فيها البشر بشكل أفضل من البشر.

“نحن البشر لا نحاكي الشخصية، بل نحن يملك الشخصية “، كما يقول. “لذا فأنا عالق في شخصيتي نوعًا ما. هذه الأشياء نموذج شخصية. “هناك ميزة تتمثل في أنه يمكنهم الحصول على أي شخصية يريدونها في أي وقت.” عندما ذكرت لكوسينسكي أن الأمر يبدو وكأنه يصف شخصًا معتلًا اجتماعيًا، استشاط غضبًا. “أنا أستخدم ذلك في محادثاتي!” يقول. “يمكن للمعتل اجتماعيًا أن يرتدي قناعًا، فهو ليس حزينًا حقًا، لكن يمكنه لعب دور شخص حزين.” هذه القوة الشبيهة بالحرباء يمكن أن تجعل الذكاء الاصطناعي محتالًا متفوقًا. مع صفر الندم.

شاركها.
اترك تعليقاً

Exit mobile version