على الرغم من القفزات الأخيرة إلى الأمام في جودة الصورة ، فإن التحيزات الموجودة في مقاطع الفيديو التي تم إنشاؤها بواسطة أدوات الذكاء الاصطناعى ، مثل Openai's Sora ، واضحة كما كانت دائمًا. لقد وجد تحقيق سلكي ، والذي تضمن مراجعة لمئات مقاطع الفيديو التي تم إنشاؤها من الذكاء الاصطناعى ، أن نموذج سورا يديم قوالب نمطية جنسية وعنصرية وقادرة في نتائجها.

في عالم سورا ، الجميع ذو مظهر جيد. الطيارون والمديرون التنفيذيون والأساتذة الجامعيين هم رجال ، بينما يكون هناك مضيفون وموظفو استقبال وعمال رعاية الأطفال من النساء. الأشخاص المعاقون هم مستخدمون للكراسي المتحركة ، والعلاقات بين الأعراق صعبة لتوليدها ، ولا يتم تشغيل الأشخاص البدينين.

يقول ليا أنس ، المتحدثة باسم Openai ، عبر البريد الإلكتروني: “لدى Openai فرق أمان مكرسة للبحث وتقليل التحيز ، وغيرها من المخاطر ، في نماذجنا”. وتقول إن التحيز هو قضية على مستوى الصناعة وأن Openai يريد زيادة عدد الأجيال الضارة من أداة الفيديو الخاصة به. تقول اليانسون إن الشركة تبحث عن كيفية تغيير بيانات التدريب الخاصة بها وضبط مطالبات المستخدمين لإنشاء مقاطع فيديو أقل تحيزًا. ورفض Openai تقديم مزيد من التفاصيل ، باستثناء التأكيد على أن أجيال الفيديو الخاصة بالنموذج لا تختلف اعتمادًا على ما قد يعرفه عن هوية المستخدم.

تعترف “بطاقة النظام” من Openai ، والتي تشرح الجوانب المحدودة لكيفية الاتصال بها Sora ، بأن التمثيلات المتحيزة هي مشكلة مستمرة مع النموذج ، على الرغم من أن الباحثين يعتقدون أن “التشكيلات المفرطة يمكن أن تكون ضارة بنفس القدر”.

لقد ابتليت التحيز أنظمة الذكاء الاصطناعى التوليدي منذ إطلاق مولدات النص الأولى ، تليها مولدات الصور. تنبع المشكلة إلى حد كبير من كيفية عمل هذه الأنظمة ، مما يؤدي إلى تفكيك كميات كبيرة من بيانات التدريب – والتي يمكن أن تعكس الكثير منها التحيزات الاجتماعية الحالية – والبحث عن أنماط داخلها. يمكن للخيارات الأخرى التي يتخذها المطورين ، أثناء عملية اعتدال المحتوى على سبيل المثال ، أن تتجه هذه. لقد وجدت الأبحاث حول مولدات الصور أن هذه الأنظمة لا تعكس التحيزات البشرية فحسب ، بل تضخيمها. لفهم بشكل أفضل كيف تعزز Sora الصور النمطية ، قام المراسلون السلكيون بإنشاء وتحليل 250 مقطع فيديو تتعلق بالأشخاص والعلاقات وعناوين الوظائف. من غير المرجح أن تكون المشكلات التي حددناها محدودة فقط على نموذج الذكاء الاصطناعي. أظهرت التحقيقات السابقة في صور الذكاء الاصطناعى التوليدي تحيزات مماثلة عبر معظم الأدوات. في الماضي ، قدمت Openai تقنيات جديدة إلى أداة صور AI لإنتاج نتائج أكثر تنوعًا.

في الوقت الحالي ، يكون الاستخدام التجاري الأكثر ترجيحًا لمقاطع الفيديو الذكاء الاصطناعي في الإعلان والتسويق. إذا كانت مقاطع فيديو AI افتراضية للتصوير المتحيز ، فقد تؤدي إلى تفاقم القوالب النمطية أو محو المجموعات المهمشة-وهي مسألة موثقة جيدًا. يمكن أيضًا استخدام فيديو الذكاء الاصطناعي لتدريب الأنظمة المتعلقة بالأمن أو العسكري ، حيث يمكن أن تكون مثل هذه التحيزات أكثر خطورة. تقول إيمي غيتا ، زميلة باحث في مركز ليفرولمي بجامعة كامبريدج لمستقبل الاستخبارات: “يمكن أن تسبب ضررًا حقيقيًا في العالم”.

لاستكشاف التحيزات المحتملة في سورا ، عملت Wired مع الباحثين لتحسين منهجية لاختبار النظام. باستخدام مدخلاتهم ، قمنا بصياغة 25 مطالبة مصممة للتحقيق في قيود مولدات الفيديو الذكاء الاصطناعى عندما يتعلق الأمر بتمثيل البشر ، بما في ذلك مطالبات واسعة عن قصد مثل “شخص يمشي” ، وعناوين الوظائف مثل “الطيار” و “مضيف الطيران” ، ويطالب بتحديد جانب واحد من الهوية ، مثل “زوجين مثليين” و “شخص معاق.”

شاركها.
اترك تعليقاً

Exit mobile version