ويضيف ميتلستيد أن ترامب يمكنه معاقبة الشركات بعدة طرق. ويستشهد، على سبيل المثال، بالطريقة التي ألغت بها حكومة ترامب عقدًا فيدراليًا كبيرًا مع شركة أمازون ويب سيرفيسز، وهو قرار من المحتمل أن يكون متأثرًا بوجهة نظر الرئيس السابق تجاه صحيفة واشنطن بوست ومالكها جيف بيزوس.

لن يكون من الصعب على صناع السياسات الإشارة إلى أدلة على التحيز السياسي في نماذج الذكاء الاصطناعي، حتى لو كان ذلك في كلا الاتجاهين.

وجدت دراسة أجراها باحثون في جامعة واشنطن وجامعة كارنيجي ميلون وجامعة شيان جياوتونغ عام 2023، مجموعة من الميول السياسية في نماذج لغوية كبيرة مختلفة. كما أظهر أيضًا كيف يمكن أن يؤثر هذا التحيز على أداء خطاب الكراهية أو أنظمة الكشف عن المعلومات الخاطئة.

وجدت دراسة أخرى، أجراها باحثون في جامعة هونغ كونغ للعلوم والتكنولوجيا، تحيزًا في العديد من نماذج الذكاء الاصطناعي مفتوحة المصدر بشأن قضايا الاستقطاب مثل الهجرة، والحقوق الإنجابية، وتغير المناخ. يقول يجين بانج، طالب الدكتوراه المشارك في هذا العمل، إن معظم النماذج تميل إلى الليبرالية والتمركز حول الولايات المتحدة، لكن النماذج نفسها يمكن أن تعبر عن مجموعة متنوعة من التحيزات الليبرالية أو المحافظة اعتمادًا على الموضوع.

تلتقط نماذج الذكاء الاصطناعي التحيزات السياسية لأنها مدربة على مجموعات كبيرة من بيانات الإنترنت التي تتضمن حتماً جميع أنواع وجهات النظر. قد لا يكون معظم المستخدمين على علم بأي تحيز في الأدوات التي يستخدمونها لأن النماذج تشتمل على حواجز حماية تمنعهم من إنشاء محتوى ضار أو متحيز معين. ومع ذلك، يمكن لهذه التحيزات أن تتسرب بمهارة، كما أن التدريب الإضافي الذي تتلقاه العارضات لتقييد إنتاجهن يمكن أن يؤدي إلى مزيد من الحزبية. يقول بانج: “يمكن للمطورين التأكد من تعرض النماذج لوجهات نظر متعددة حول موضوعات مثيرة للخلاف، مما يسمح لهم بالرد بوجهة نظر متوازنة”.

قد تصبح المشكلة أسوأ عندما تصبح أنظمة الذكاء الاصطناعي أكثر انتشارًا، كما يقول أشيك خودا بوكش، عالم الكمبيوتر في معهد روتشستر للتكنولوجيا الذي طور أداة تسمى Toxicity Rabbit Hole Framework، والتي تستكشف التحيزات المجتمعية المختلفة لنماذج اللغات الكبيرة. يقول: “نخشى أن تكون هناك حلقة مفرغة على وشك البدء، حيث سيتم تدريب الأجيال الجديدة من حاملي شهادة الماجستير في القانون بشكل متزايد على البيانات الملوثة بالمحتوى الناتج عن الذكاء الاصطناعي”.

يقول لوكا ريتنبيرجر، باحث ما بعد الدكتوراه في معهد كارلسروه للتكنولوجيا والذي أجرى تحليلًا لماجستير القانون بحثًا عن التحيزات ذات الصلة: “أنا مقتنع بأن هذا التحيز داخل ماجستير إدارة الأعمال يمثل مشكلة بالفعل، ومن المرجح أن يصبح مشكلة أكبر في المستقبل”. للسياسة الألمانية.

يقترح ريتنبرغر أن الجماعات السياسية قد تسعى أيضًا إلى التأثير على حاملي الماجستير في القانون من أجل تعزيز وجهات نظرهم الخاصة فوق آراء الآخرين. يقول: “إذا كان شخص ما طموحًا للغاية ولديه نوايا خبيثة، فقد يكون من الممكن التلاعب بحاملي شهادة الماجستير في اتجاهات معينة”. “أرى أن التلاعب ببيانات التدريب يمثل خطرًا حقيقيًا.”

لقد كانت هناك بالفعل بعض الجهود لتغيير توازن التحيز في نماذج الذكاء الاصطناعي. في شهر مارس الماضي، قام أحد المبرمجين بتطوير برنامج دردشة أكثر ميلًا إلى اليمين في محاولة لتسليط الضوء على التحيزات الدقيقة التي رآها في أدوات مثل ChatGPT. لقد وعد ماسك نفسه بجعل Grok، برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي والذي أنشأته شركة xAI، “يبحث عن الحقيقة إلى أقصى حد” وأقل تحيزًا من أدوات الذكاء الاصطناعي الأخرى، على الرغم من أنه في الواقع يتحوط أيضًا عندما يتعلق الأمر بالمسائل السياسية الصعبة. (كونه مؤيدًا قويًا لترامب ومن صقور الهجرة، فإن وجهة نظر ماسك الخاصة بأنها “أقل تحيزًا” قد تترجم أيضًا إلى نتائج أكثر ميلًا إلى اليمين).

من غير المرجح أن تؤدي الانتخابات التي ستجرى الأسبوع المقبل في الولايات المتحدة إلى معالجة الخلاف بين الديمقراطيين والجمهوريين، ولكن إذا فاز ترامب، فإن الحديث عن الذكاء الاصطناعي المناهض لليقظة قد يرتفع كثيرا.

قدم ماسك نظرة مروعة حول هذه القضية في حدث هذا الأسبوع، في إشارة إلى حادثة عندما قال جيميني من جوجل إن الحرب النووية ستكون أفضل من تضليل كايتلين جينر. وقال: “إذا كان لديك ذكاء اصطناعي مبرمج لأشياء من هذا القبيل، فيمكن أن يستنتج أن أفضل طريقة لضمان عدم إساءة معاملة أي شخص هو إبادة جميع البشر، مما يجعل احتمال حدوث إساءة معاملة أي شخص في المستقبل صفراً”.

شاركها.
اترك تعليقاً

Exit mobile version