إنها نوع مختلف من الثقة الزائفة.
ليس فقط أن الذكاء الاصطناعي أصبح أكثر صعوبة في اكتشافه، ولكننا الآن لا نعرف حتى أننا مخطئون. وجد علماء أستراليون أن الناس أصبحوا واثقين بشكل مفرط بشأن قدرتهم على التمييز بين الوجوه الحقيقية والرقمية، مما قد يجعلنا عرضة للتضليل والاحتيال.
وقال مؤلف الدراسة الدكتور جيمس دن من كلية علم النفس بجامعة جنوب ويلز: “كان الناس واثقين من قدرتهم على اكتشاف الوجه المزيف”. “لكن الوجوه التي تم إنشاؤها بواسطة أنظمة توليد الوجه الأكثر تقدمًا لم يعد من السهل اكتشافها بعد الآن.”
لاختبار قدراتنا على اكتشاف الذكاء الاصطناعي، قام الباحثون الأستراليون باستطلاع آراء 125 شخصًا – 89 شخصًا يتمتعون ببراعة متوسطة في التعرف على الوجوه و36 شخصًا يتمتعون بقدرات استثنائية في التعرف، تسمى أدوات التعرف الفائقة، وفقًا للدراسة المنشورة في “المجلة البريطانية لعلم النفس”.
عُرضت على المشاركين صور لوجوه – تم فحصها مسبقًا بحثًا عن عيوب واضحة – وطُلب منهم تحديد ما إذا كانت حقيقية أم ذكاء اصطناعي.
ووجد الباحثون أن الأشخاص الذين يتمتعون “بقدرة متوسطة على التعرف على الوجوه” كان أداؤهم أفضل قليلاً من الصدفة، بحسب دان.
على سبيل المثال، سجلت الخنازير الغينية درجة غير مثيرة للإعجاب وهي 3 من أصل 6 في هذا “الاختبار البشري”، مما يعني أننا كنا سنحقق نفس النتيجة لو قمنا بقلب عملة معدنية.
وفي الوقت نفسه، كان أداء أدوات التعرف الفائقة أفضل من المجموعة الضابطة في المواجهة، ولكن كان ذلك فقط بـ “هامش ضئيل”، وفقًا للدكتور دان.
ثابت واحد؟ اعتقاد في غير محله بقدرتهم على الكشف. قال دون مازحًا: “ما كان ثابتًا هو ثقة الناس في قدرتهم على اكتشاف الوجه الناتج عن الذكاء الاصطناعي، حتى عندما لم تكن هذه الثقة يضاهيها أدائهم الفعلي”.
جزء من المشكلة هو أن تقنية الذكاء الاصطناعي للوجه أصبحت متطورة للغاية لدرجة أننا لا نستطيع اكتشاف المنتجات المزيفة باستخدام الإشارات المألوفة. في حين يواجه الذكاء الاصطناعي “أسنانًا مشوهة، ونظارات اندمجت في الوجوه” وغيرها من الهبات “الرأسية” التي ظهرت سابقًا، فإن المولدات المتقدمة جعلت هذه العيوب أقل شيوعًا بكثير.
ومع ذلك، بما أننا لا نزال نبحث عن الأعلام الحمراء العادية، فإن هذا يغرس فينا التبجح “الزائف” المذكور أعلاه.
في الوقت الحاضر، من المفارقة أن منتحلي الذكاء الاصطناعي لا يتم التعرف عليهم من خلال عيوبهم، بل من خلال افتقارهم إليها.
وقالت زميلتها المؤلفة الدكتورة إيمي داويل، عالمة النفس في الجامعة الوطنية الأسترالية (ANU): “من المفارقات أن وجوه الذكاء الاصطناعي الأكثر تقدمًا لا يتم التخلص منها بسبب ما هو خطأ فيها، ولكن بسبب ما هو صحيح للغاية”. “بدلاً من وجود مواطن الخلل الواضحة، فإنها تميل إلى أن تكون متوسطة بشكل غير عادي – متماثلة للغاية، ومتناسبة بشكل جيد، ونموذجية إحصائيًا.”
وأعربت عن أسفها قائلة: “يبدو الأمر كما لو أنها جيدة جدًا بحيث لا يمكن تصديقها كوجوه”.
وبالنظر إلى عدد المرات التي تم فيها خداع أدوات التعرف الفائقة، فمن الواضح أن اكتشاف الذكاء الاصطناعي ليس مهارة يمكن للناس تعلمها بسهولة.
إن افتقارنا إلى قدرات الكشف – فضلاً عن ثقتنا في غير محلها – يثير القلق نظرًا لظهور مخططات صيد القطط الطبيعية بشكل متزايد وغيرها من الخداع الرقمي. في الشتاء الماضي، كشف مستخدمو TikTok عن أطباء مزيفين للغاية تم إنشاؤهم بواسطة الذكاء الاصطناعي والذين كانوا يضايقون مستخدمي وسائل التواصل الاجتماعي بنصائح طبية لا أساس لها من الصحة.
على هذا النحو، نحن بحاجة إلى “مستوى صحي من الشك”، وفقًا للدكتور دان. وقال: “لقد تمكنا لفترة طويلة من النظر إلى الصورة وافتراض أننا نرى شخصًا حقيقيًا”. “هذا الافتراض يتم تحديه الآن.”
يعتقد العلماء أن الحل ربما يكمن في نوع جديد من معالج التعرف على الوجه الذي عثروا عليه عن غير قصد أثناء التجربة.
وقال: “لقد كشف بحثنا أن بعض الأشخاص يعملون بالفعل على اكتشاف وجوه الذكاء الاصطناعي، مما يشير إلى أنه قد يكون هناك “كاشفات وجوه فائقة الذكاء الاصطناعي””. “نريد معرفة المزيد حول كيفية تمكن هؤلاء الأشخاص من اكتشاف هذه الوجوه المزيفة، وما هي القرائن التي يستخدمونها، ومعرفة ما إذا كان من الممكن تعليم هذه الاستراتيجيات لبقيتنا.”


