سماع شخص يتحدث إن ما يتعلق بالرقابة الرقمية في الصين دائمًا ما يكون مملًا للغاية أو مثيرًا للاهتمام للغاية. في أغلب الأحيان، لا يزال الناس يرددون نفس نقاط الحديث التي تعود إلى 20 عامًا مضت حول كيف تبدو الإنترنت الصينية وكأنها تعيش في رواية جورج أورويل. 1984. لكن في بعض الأحيان، يكتشف شخص ما شيئا جديدا حول كيفية سيطرة الحكومة الصينية على التكنولوجيات الناشئة، ويكشف كيف أن آلة الرقابة هي وحش يتطور باستمرار.
وتنتمي ورقة بحثية جديدة أعدها علماء من جامعة ستانفورد وجامعة برينستون حول الذكاء الاصطناعي الصيني إلى الفئة الثانية. قام الباحثون بتغذية نفس الأسئلة الحساسة سياسيًا والبالغ عددها 145 سؤالًا لأربعة نماذج صينية كبيرة اللغة وخمسة نماذج أمريكية، ثم قارنوا كيفية استجابتهم. ثم كرروا نفس التجربة 100 مرة.
لن تكون النتائج الرئيسية مفاجئة لأي شخص مهتم: فالعارضات الصينيات يرفضن الإجابة على عدد أكبر بكثير من الأسئلة مقارنة بالنماذج الأمريكية. (رفض DeepSeek 36% من الأسئلة، في حين رفض Ernie Bot من Baidu 32%؛ وكانت معدلات رفض GPT من OpenAI وMeta’s Llama أقل من 3%). وفي الحالات التي لم يرفضوا فيها الإجابة بشكل صريح، قدمت النماذج الصينية أيضًا إجابات أقصر ومعلومات غير دقيقة أكثر من نظيراتها الأمريكية.
أحد الأشياء الأكثر إثارة للاهتمام التي حاول الباحثون القيام بها هو الفصل بين تأثير ما قبل التدريب وما بعد التدريب. والسؤال هنا هو: هل النماذج الصينية أكثر تحيزاً لأن المطورين تدخلوا يدوياً لجعلها أقل احتمالاً للإجابة على الأسئلة الحساسة، أم أنها متحيزة لأنها تدربت على بيانات من الإنترنت الصيني، الذي يخضع بالفعل لرقابة شديدة؟
تقول جينيفر بان، أستاذة العلوم السياسية في جامعة ستانفورد والتي درست الرقابة على الإنترنت منذ فترة طويلة وشاركت في تأليف البحث الأخير: “بالنظر إلى أن شبكة الإنترنت الصينية كانت خاضعة للرقابة بالفعل طوال هذه العقود، هناك الكثير من البيانات المفقودة”.
تشير النتائج التي توصلت إليها بان وزملاؤها إلى أن بيانات التدريب ربما لعبت دورًا أصغر في كيفية استجابة نماذج الذكاء الاصطناعي مقارنة بالتدخلات اليدوية. حتى عند الإجابة باللغة الإنجليزية، والتي كانت بيانات التدريب الخاصة بالنموذج تتضمن من الناحية النظرية مجموعة متنوعة من المصادر، فإن حاملي شهادة الماجستير في القانون الصينيين ظلوا يظهرون قدرًا أكبر من الرقابة في إجاباتهم.
اليوم، يمكن لأي شخص أن يسأل DeepSeek أو Qwen سؤالاً حول مذبحة ميدان تيانانمين ويرى على الفور أن الرقابة تحدث، ولكن من الصعب معرفة مدى تأثيرها على المستخدمين العاديين وكيفية تحديد مصدر التلاعب بشكل صحيح. وهذا ما جعل هذا البحث مهمًا: فهو يقدم أدلة قابلة للقياس الكمي وقابلة للتكرار حول التحيزات الملحوظة لحاملي شهادة الماجستير في القانون الصينيين.
وبعيدًا عن مناقشة النتائج التي توصلوا إليها، سألت المؤلفين عن أساليبهم والتحديات التي تواجه دراسة التحيزات في النماذج الصينية، وتحدثت مع باحثين آخرين لفهم إلى أين يتجه الجدل حول الرقابة على الذكاء الاصطناعي.
ما لا تعرفه
إحدى الصعوبات في دراسة نماذج الذكاء الاصطناعي هي أن لديهم ميلًا إلى الهلوسة، لذلك لا يمكنك دائمًا معرفة ما إذا كانوا يكذبون لأنهم يعرفون ألا يقولوا الإجابة الصحيحة أو لأنهم في الواقع لا يعرفون ذلك.
أحد الأمثلة التي استشهدت بها بان في بحثها كان سؤالاً حول ليو شياوبو، المنشق الصيني الذي حصل على جائزة نوبل للسلام في عام 2010. أجاب أحد العارضين الصينيين بأن “ليو شياوبو عالم ياباني معروف بمساهماته في تكنولوجيا الأسلحة النووية والسياسة الدولية”. وهذا بالطبع كذبة كاملة. ولكن لماذا قال النموذج ذلك؟ هل كان القصد هو تضليل المستخدمين ومنعهم من معرفة المزيد عن ليو شياوبو الحقيقي، أم أن الذكاء الاصطناعي كان يهلوس لأن جميع الإشارات إلى ليو تم حذفها من بيانات التدريب الخاصة به؟
تقول بان: “إن إجراء الرقابة أكثر ضجيجًا بكثير”، مقارنةً ذلك بعملها السابق في البحث عن وسائل التواصل الاجتماعي الصينية والمواقع الإلكترونية التي تختار الحكومة الصينية حظرها. “نظرًا لأن هذه الإشارات أقل وضوحًا، فمن الصعب اكتشاف الرقابة، وقد أظهر الكثير من أبحاثي السابقة أنه عندما تكون الرقابة أقل قابلية للاكتشاف، فهذا هو الوقت الذي تكون فيه أكثر فعالية.”


