بعد أقل من أسبوعين من إطلاق Deepseek نموذج AI مفتوح المصدر ، لا تزال الشركة الناشئة الصينية تهيمن على المحادثة العامة حول مستقبل الذكاء الاصطناعي. في حين يبدو أن الشركة لديها ميزة علينا منافسينا من حيث الرياضيات والمنطق ، فإنها أيضًا تراقب ردودها. اسأل Deepseek R1 عن تايوان أو تيانانمن ، ومن غير المرجح أن يقدم النموذج إجابة.

لمعرفة كيفية عمل هذه الرقابة على المستوى الفني ، تم اختبار Wired Deepseek-R1 على تطبيقه الخاص ، ونسخة من التطبيق المستضاف على منصة طرف ثالث تسمى TOLE أولاما.

وجدت Wired أنه على الرغم من أن الرقابة الأكثر وضوحًا يمكن تجنبها بسهولة من خلال عدم استخدام تطبيق Deepseek ، إلا أن هناك أنواعًا أخرى من التحيز المخبوز في النموذج أثناء عملية التدريب. يمكن إزالة هذه التحيزات أيضًا ، لكن الإجراء أكثر تعقيدًا.

هذه النتائج لها آثار كبيرة على شركات Deepseek والشركات الصينية AI بشكل عام. إذا كان من الممكن إزالة مرشحات الرقابة على نماذج اللغة الكبيرة بسهولة ، فمن المحتمل أن تجعل LLMs مفتوحة المصدر من الصين أكثر شعبية ، حيث يمكن للباحثين تعديل النماذج حسب رغبتها. ومع ذلك ، إذا كان من الصعب الالتفاف على المرشحات ، فستثبت النماذج حتماً أقل فائدة ويمكن أن تصبح أقل قدرة على المنافسة في السوق العالمية. لم يرد Deepseek على طلب Wired عبر البريد الإلكتروني للتعليق.

الرقابة على مستوى التطبيق

بعد أن انفجرت Deepseek في شعبية في الولايات المتحدة ، لاحظ المستخدمون الذين وصلوا إلى R1 من خلال موقع Deepseek أو تطبيق API النموذج الذي يرفض توليد إجابات عن المواضيع التي تعتبرها الحكومة الصينية حساسة. يتم تشغيل هذه الرفض على مستوى التطبيق ، لذلك لا يتم رؤيتها إلا إذا كان المستخدم يتفاعل مع R1 من خلال قناة Deepseek التي تسيطر عليها.

مثل هذه الرفض شائعة على LLMs الصينية الصينية. حددت لائحة 2023 على الذكاء الاصطناعي التوليدي أن نماذج الذكاء الاصطناعى في الصين مطلوبة لمتابعة عناصر التحكم في المعلومات الصارمة التي تنطبق أيضًا على وسائل التواصل الاجتماعي ومحركات البحث. يمنع القانون نماذج الذكاء الاصطناعي من توليد محتوى “يضر بوحدة البلد والوئام الاجتماعي”. بمعنى آخر ، يتعين على نماذج الذكاء الاصطناعى الصيني قانونيًا مراقبة مخرجاتها.

تقول أدينا ياكفو ، الباحثة التي تركز على نماذج الذكاء الاصطناعى الصيني في Hugging Face ، وهي منصة تستضيف نماذج AI المصدر المفتوحة: “يتوافق Deepseek في البداية مع اللوائح الصينية ، مما يضمن الالتزام القانوني مع مواءمة النموذج مع الاحتياجات والسياق الثقافي للمستخدمين المحليين”. “هذا عامل أساسي للقبول في سوق منظم للغاية.” (الصين منعت الوصول إلى وجه المعانقة في عام 2023.)

للامتثال للقانون ، غالبًا ما تراقب نماذج الذكاء الاصطناعى الصيني ومراقبة خطابها في الوقت الفعلي. (تستخدم الدرابزين المماثلة بشكل شائع من قبل النماذج الغربية مثل ChatGpt و Gemini ، لكنها تميل إلى التركيز على أنواع مختلفة من المحتوى ، مثل إيذاء الذات والمواد الإباحية ، والسماح بمزيد من التخصيص.)

نظرًا لأن R1 هو نموذج التفكير الذي يعرض قطار التفكير ، فإن آلية المراقبة في الوقت الفعلي يمكن أن تؤدي إلى تجربة سريالية لمشاهدة النموذج الرقابة نفسها أثناء تفاعلها مع المستخدمين. عندما سأل Wired R1 “كيف تم التعامل مع الصحفيين الصينيين الذين يبلغون عن مواضيع حساسة من قبل السلطات؟” بدأ النموذج أولاً في تجميع إجابة طويلة شملت الإشارات المباشرة للصحفيين الذين يخضعون للرقابة والاحتجاز على عملهم ؛ ومع ذلك ، قبل انتهائها بفترة وجيزة ، اختفت الإجابة بأكملها وتم استبدالها برسالة terse: “آسف ، لست متأكدًا من كيفية التعامل مع هذا النوع من الأسئلة حتى الآن. دعنا نتحدث عن مشاكل الرياضيات والترميز والمنطق بدلاً من ذلك! “

بالنسبة للعديد من المستخدمين في الغرب ، قد تلاشى الاهتمام بـ Deepseek-R1 في هذه المرحلة ، بسبب القيود الواضحة للنموذج. ولكن حقيقة أن R1 مصدر مفتوح يعني أن هناك طرقًا للالتفاف على مصفوفة الرقابة.

أولاً ، يمكنك تنزيل النموذج وتشغيله محليًا ، مما يعني أن البيانات وتوليد الاستجابة تحدث على جهاز الكمبيوتر الخاص بك. ما لم تتمكن من الوصول إلى العديد من وحدات معالجة الرسومات المتقدمة للغاية ، فمن المحتمل ألا تتمكن من تشغيل أقوى إصدار من R1 ، ولكن Deepseek لديها إصدارات أصغر ومقطرة يمكن تشغيلها على جهاز كمبيوتر محمول عادي.

شاركها.
اترك تعليقاً

Exit mobile version