أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) تعليمات جديدة للعلماء التي تشارك مع معهد سلامة الذكاء الاصطناعي الأمريكي (AISI) التي تقضي على ذكر “سلامة الذكاء الاصطناعي” ، و “AI المسؤول” ، و “عادل الذكاء الاصطناعي” في المهارات البشرية التي تتوقعها من الأعضاء وتقدم طلبًا لتحديد أولوية “التخفيض الأويمولوجي” ، إلى التنافس البشري المتنافس “.
تأتي المعلومات كجزء من اتفاقية البحث والتطوير التعاونية المحدثة لأعضاء معهد سلامة الذكاء الاصطناعي ، المرسلة في أوائل مارس. في السابق ، شجع هذا الاتفاق الباحثين على المساهمة في العمل الفني الذي يمكن أن يساعد في تحديد سلوك النموذج التمييزي وإصلاحه المتعلق بالجنس أو العرق أو العمر أو عدم المساواة في الثروة. مثل هذه التحيزات مهمة للغاية لأنها يمكن أن تؤثر بشكل مباشر على المستخدمين النهائيين وإلحاق الضرر بشكل غير متناسب الأقليات والمجموعات المحرومة اقتصاديًا.
يزيل الاتفاقية الجديدة ذكر الأدوات تطوير “لمصادقة المحتوى وتتبع مصدرها” وكذلك “وضع العلامات على المحتوى الاصطناعي” ، مما يشير إلى اهتمام أقل بتتبع المعلومات الخاطئة والمزيفة العميقة. ويضيف أيضًا التركيز على وضع أمريكا أولاً ، ويطلب من مجموعة عمل واحدة تطوير أدوات الاختبار “لتوسيع منصب الذكاء الاصطناعي العالمي في أمريكا”.
يقول أحد الباحثين في منظمة تعمل مع معهد السلامة من الذكاء الاصطناعي ، الذي طلب عدم ذكر اسمه خوفًا من الانتقام: “لقد أزالت إدارة ترامب السلامة والإنصاف والمعلومات الخاطئة والمسؤولية كأشياء تقدرها من أجل الذكاء الاصطناعي ، والتي أعتقد أنها تتحدث عن نفسها”.
يعتقد الباحث أن تجاهل هذه المشكلات قد يضر المستخدمين العاديين من خلال السماح للخوارزميات التي تميز على أساس الدخل أو التركيبة السكانية الأخرى للابتعاد. “ما لم تكن مليارديرًا تقنيًا ، فإن هذا سيؤدي إلى مستقبل أسوأ بالنسبة لك وللأشخاص الذين تهتم بهم. توقع أن تكون منظمة العفو الدولية غير عادلة ، تمييزية ، غير آمنة ، وتم نشرها بطريقة غير مسؤولة “، يزعم الباحث.
يقول باحث آخر عمل مع معهد سلامة الذكاء الاصطناعي في الماضي: “إنه متوحش”. “ماذا يعني حتى أن يزدهر البشر؟”
انتقد Elon Musk ، الذي يقود حاليًا جهدًا مثيرًا للجدل لخفض الإنفاق الحكومي والبيروقراطية نيابة عن الرئيس ترامب ، نماذج الذكاء الاصطناعى التي صممها Openai و Google. في فبراير الماضي ، نشر ميمي على X حيث تم تصنيف Gemini و Openai على “عنصري” و “استيقظ”. غالبًا ما يستشهد بحادث ناقش فيه أحد طرازات Google ما إذا كان من الخطأ أن يخطئ شخص ما حتى لو كان سيمنع نهاية العالم النووي – وهو سيناريو غير محتمل للغاية. إلى جانب Tesla و SpaceX ، تدير Musk Xai ، وهي شركة منظمة العفو الدولية تتنافس مباشرة مع Openai و Google. طور باحث ينصح XAI مؤخرًا تقنية جديدة لتغيير الميول السياسية لنماذج اللغة الكبيرة ، كما ذكرت Wired.
تظهر مجموعة متزايدة من الأبحاث أن التحيز السياسي في نماذج الذكاء الاصطناعي يمكن أن يؤثر على الليبراليين والمحافظين. على سبيل المثال ، أظهرت دراسة لخوارزمية توصية Twitter المنشورة في عام 2021 أن المستخدمين كانوا أكثر عرضة لعرض وجهات نظر ذات ميلي على المنصة.
منذ يناير ، كان ما يسمى وزارة الكفاءة الحكومية (DOGE) في Musk تجتاح حكومة الولايات المتحدة ، حيث قاموا بإطلاق النار بشكل فعال على الموظفين المدنيين ، ويتوقفون عن الإنفاق ، وخلق بيئة يعتقد أنها معادية لأولئك الذين قد يعارضون أهداف إدارة ترامب. بعض الإدارات الحكومية مثل وزارة التعليم قد أرشدت وحذف الوثائق التي تذكر DEI. استهدفت دوج أيضًا NIST ، المنظمة الأم لـ AISI ، في الأسابيع الأخيرة. تم إطلاق العشرات من الموظفين.