وينطبق الشيء نفسه على أنظمة الذكاء الاصطناعي التي تستخدمها الشركات للمساعدة في الإبلاغ عن المحتوى الذي يحتمل أن يكون خطيرًا أو مسيئًا. يقول لويس فيكتور دي فرانسو، المؤسس المشارك لمنصة الثقة والسلامة Tremau، إن المنصات غالبًا ما تستخدم مجموعات ضخمة من البيانات لبناء أدوات داخلية تساعدها على تبسيط هذه العملية. لكن يتعين على العديد من هذه الشركات الاعتماد على النماذج المتاحة تجاريًا لبناء أنظمتها، الأمر الذي قد يؤدي إلى مشاكل جديدة.

يقول فرانسو: “هناك شركات تقول إنها تبيع الذكاء الاصطناعي، لكن ما تفعله في الواقع هو أنها تجمع نماذج مختلفة معًا”. وهذا يعني أن الشركة قد تجمع بين مجموعة من نماذج التعلم الآلي المختلفة – على سبيل المثال، نموذج يكتشف عمر المستخدم وآخر يكتشف العري للإبلاغ عن مواد الاعتداء الجنسي المحتملة على الأطفال – في خدمة تقدمها للعملاء.

وعلى الرغم من أن هذا يمكن أن يجعل الخدمات أرخص، إلا أنه يعني أيضًا أن أي مشكلة في النموذج الذي يستخدمه المتعاقد الخارجي سيتم تكرارها عبر عملائه، كما يقول غابي نيكولاس، وهو زميل باحث في مركز الديمقراطية والتكنولوجيا. “من منظور حرية التعبير، هذا يعني أنه إذا كان هناك خطأ على منصة واحدة، فلا يمكنك نقل خطابك إلى مكان آخر – إذا كان هناك خطأ، فسوف ينتشر هذا الخطأ في كل مكان.” يمكن أن تتفاقم هذه المشكلة إذا كان العديد من المتعاقدين الخارجيين يستخدمون نفس النماذج التأسيسية.

ومن خلال الاستعانة بمصادر خارجية للوظائف الحيوية لأطراف ثالثة، يمكن للمنصات أيضًا أن تجعل من الصعب على الناس فهم أين يتم اتخاذ قرارات الاعتدال، أو على المجتمع المدني – مؤسسات الفكر والرأي والمنظمات غير الربحية التي تراقب المنصات الكبرى عن كثب – معرفة مكان المساءلة عن الإخفاقات.

“(كثير من المشاهدين) يتحدثون كما لو أن هذه المنصات الكبيرة هي التي تتخذ القرارات. يقول نيكولاس: “هذا هو المكان الذي يوجه إليه الكثير من الأشخاص في الأوساط الأكاديمية والمجتمع المدني والحكومة انتقاداتهم”. “إن فكرة أننا قد نشير إلى المكان الخطأ هي فكرة مخيفة.”

تاريخياً، كان يتم التعاقد مع شركات كبيرة مثل Telus، وTeleperformance، وAccenture لإدارة جزء رئيسي من أعمال الثقة والسلامة التي يتم الاستعانة بمصادر خارجية: الإشراف على المحتوى. غالبًا ما كان هذا يشبه مراكز الاتصال، حيث يقوم عدد كبير من الموظفين ذوي الأجور المنخفضة بتحليل المنشورات يدويًا لتحديد ما إذا كانوا ينتهكون سياسات النظام الأساسي ضد أشياء مثل خطاب الكراهية والبريد العشوائي والعُري. تميل الشركات الناشئة الجديدة في مجال الثقة والسلامة أكثر نحو الأتمتة والذكاء الاصطناعي، وغالبًا ما تتخصص في أنواع معينة من المحتوى أو مجالات المواضيع – مثل الإرهاب أو الاعتداء الجنسي على الأطفال – أو التركيز على وسيط معين، مثل النص مقابل الفيديو. يقوم البعض الآخر ببناء أدوات تسمح للعميل بتشغيل عمليات الثقة والأمان المختلفة من خلال واجهة واحدة.

شاركها.
اترك تعليقاً

Exit mobile version