يقول جيسون ميلر، نائب مدير مكتب الإدارة والميزانية: “يتيح الإطار مجموعة من المتطلبات الملزمة للوكالات الفيدرالية لوضع ضمانات لاستخدام الذكاء الاصطناعي حتى نتمكن من الاستفادة من الفوائد وتمكين الجمهور من الثقة في الخدمات التي تقدمها الحكومة الفيدرالية”. للإدارة.
تسلط مسودة المذكرة الضوء على استخدامات معينة للذكاء الاصطناعي حيث يمكن أن تضر التكنولوجيا بالحقوق أو السلامة، بما في ذلك الرعاية الصحية والإسكان وإنفاذ القانون – جميع المواقف التي أدت فيها الخوارزميات في الماضي إلى التمييز أو الحرمان من الخدمات.
تشمل أمثلة مخاطر السلامة المحتملة المذكورة في مسودة مكتب الإدارة والميزانية أتمتة البنية التحتية الحيوية مثل السدود والمركبات ذاتية القيادة مثل سيارات الأجرة الروبوتية التي تم إغلاقها الأسبوع الماضي في كاليفورنيا وتخضع للتحقيق من قبل الجهات التنظيمية الفيدرالية والمحلية بعد أن صدمت سيارة أحد المشاة تم جره 20 قدمًا. تشمل الأمثلة على كيفية انتهاك الذكاء الاصطناعي لحقوق المواطنين في مسودة المذكرة، الشرطة التنبؤية، والذكاء الاصطناعي الذي يمكنه حظر الكلام المحمي، وبرامج الكشف عن الانتحال أو العواطف، وخوارزميات فحص المستأجر، والأنظمة التي يمكن أن تؤثر على الهجرة أو حضانة الأطفال.
وفقًا لمكتب الإدارة والميزانية، تستخدم الوكالات الفيدرالية حاليًا أكثر من 700 خوارزمية، على الرغم من أن قوائم الجرد المقدمة من الوكالات الفيدرالية غير كاملة. يقول ميلر إن مسودة المذكرة تتطلب من الوكالات الفيدرالية مشاركة المزيد حول الخوارزميات التي تستخدمها. ويقول: “نتوقع أنه في الأسابيع والأشهر المقبلة، سنقوم بتحسين قدرات الوكالات على تحديد حالات الاستخدام الخاصة بها والإبلاغ عنها”.
ذكرت نائب الرئيس كامالا هاريس مذكرة مكتب الإدارة والميزانية إلى جانب مبادرات الذكاء الاصطناعي المسؤولة الأخرى في تصريحات اليوم في سفارة الولايات المتحدة في لندن، وهي رحلة تمت لحضور قمة سلامة الذكاء الاصطناعي في المملكة المتحدة هذا الأسبوع. وقالت إنه في حين تركز بعض الأصوات في صنع سياسات الذكاء الاصطناعي على المخاطر الكارثية مثل الدور الذي يمكن أن يلعبه الذكاء الاصطناعي يومًا ما في الهجمات الإلكترونية أو إنشاء أسلحة بيولوجية، فإن التحيز والمعلومات المضللة يتم تضخيمها بالفعل بواسطة الذكاء الاصطناعي وتؤثر على الأفراد والمجتمعات يوميًا.
ترحب ميرفي هيكوك، مؤلفة كتاب سيصدر قريبا عن سياسة شراء الذكاء الاصطناعي والباحثة في جامعة ميشيغان، بكيفية مطالبة مذكرة مكتب الإدارة والميزانية الوكالات بتبرير استخدامها للذكاء الاصطناعي وتعيين أشخاص محددين مسؤولين عن التكنولوجيا. وتقول إن هذه طريقة فعالة محتملة لضمان عدم إدراج الذكاء الاصطناعي في كل برنامج حكومي.
لكنها تخشى أن يؤدي تقديم الإعفاءات إلى تقويض هذه الآليات. وتقول: “سأشعر بالقلق إذا بدأنا نرى الوكالات تستخدم هذا التنازل على نطاق واسع، وخاصة تطبيق القانون والأمن الداخلي والمراقبة”. “بمجرد حصولهم على التنازل، يمكن أن يكون الأمر لأجل غير مسمى.”