أطلق الديمقراطيون في لجنة الرقابة في مجلس النواب على عشرين طلبات صباح يوم الأربعاء الذين يضغطون على قادة الوكالات الفيدرالية للحصول على معلومات حول خطط لتثبيت برامج الذكاء الاصطناعى في جميع أنحاء الوكالات الفيدرالية وسط التخفيضات المستمرة للقوى العاملة للحكومة.
يتبع وابل الاستفسارات التقارير الأخيرة التي أجرتها Wired و Washington Post فيما يتعلق بتبهيل إيلون موسك ما يسمى بالكفاءة الحكومية (DOGE) لأتمتة المهام مع مجموعة متنوعة من أدوات الذكاء الاصطناعي والبيانات الحساسة للوصول.
“الشعب الأمريكي يعهد الحكومة الفيدرالية بالمعلومات الشخصية الحساسة المتعلقة بصحتها ومالية ومعلومات السيرة الذاتية الأخرى على أساس أنه لن يتم الكشف عن هذه المعلومات أو استخدامها بشكل غير صحيح دون موافقتها” ، كما تقول الطلبات ، “بما في ذلك من خلال استخدام برنامج الذكاء الاصطناعي غير المعتمد وغير قابل للمساءلة.”
يتم توقيع الطلبات ، التي تم الحصول عليها لأول مرة من قبل Wired ، بواسطة جيرالد كونولي ، عضو الكونغرس الديمقراطي من فرجينيا.
يتمثل الغرض الرئيسي من الطلبات في الضغط على الوكالات لإثبات أن أي استخدام محتمل لمنظمة العفو الدولية قانونية وأن الخطوات يتم اتخاذها لحماية البيانات الخاصة للأميركيين. يريد الديمقراطيون أيضًا معرفة ما إذا كان أي استخدام من الذكاء الاصطناعى سيفيد Musk مالياً ، الذي أسس Xai والذين تعمل شركة السيارات الكهربائية المضطربة ، Tesla ، على المحور نحو الروبوتات و AI. يقول كونولي ، إن الديمقراطيين يشعرون بالقلق أيضًا ، أن Musk يمكن أن يستخدم وصوله إلى البيانات الحكومية الحساسة للإثراء الشخصي ، ويستفيد من البيانات لـ “شحن” نموذج الذكاء الاصطناعي الخاص به ، والمعروف باسم Grok.
في الطلبات ، يلاحظ كونولي أن الوكالات الفيدرالية “ملزمة بمتطلبات قانونية متعددة في استخدامها لبرامج الذكاء الاصطناعى” ، مشيرًا بشكل رئيسي إلى برنامج إدارة المخاطر والترخيص الفيدرالي ، والذي يعمل على توحيد نهج الحكومة للخدمات السحابية وضمان تقييم الأدوات القائمة على الذكاء الاصطناعي بشكل صحيح لمخاطر الأمان. كما يشير إلى قانون ADANCING American AI ، والذي يتطلب من الوكالات الفيدرالية “إعداد والحفاظ على جرد لحالات استخدام الذكاء الاصطناعي في الوكالة” ، وكذلك “إتاحة مخزون الوكالات للجمهور”.
تظهر الوثائق التي حصلت عليها Wired الأسبوع الماضي أن عملاء Doge قد نشروا chatbot الملكية التي تسمى GSAI لحوالي 1500 عامل فيدرالي. تشرف GSA على خصائص الحكومة الفيدرالية وتوفر خدمات تكنولوجيا المعلومات للعديد من الوكالات.
تظهر مذكرة تم الحصول عليها من قبل المراسلين السلكية أن الموظفين قد تم تحذيرهم من تغذية البرنامج أي معلومات غير مصنفة. نظرت الوكالات الأخرى ، بما في ذلك أقسام الخزانة والصحة والخدمات الإنسانية ، في استخدام chatbot ، وإن لم يكن بالضرورة GSAI ، وفقًا للوثائق التي ينظر إليها Wired.
ذكرت Wired أيضًا أن جيش الولايات المتحدة يستخدم حاليًا برامج تطلق عليها Camogpt لمسح أنظمة السجلات الخاصة بها لأي إشارات إلى التنوع والإنصاف والإدماج وإمكانية الوصول. أكد متحدث باسم الجيش وجود الأداة لكنه رفض تقديم مزيد من المعلومات حول كيفية تخطط الجيش لاستخدامها.
في الطلبات ، كتب كونولي أن وزارة التعليم تمتلك معلومات محددة شخصيًا عن أكثر من 43 مليون شخص مرتبط ببرامج المساعدات الطلابية الفيدرالية. “بسبب الوتيرة الغامضة والمهرمة التي يبدو أن دوج تعمل بها ، يكتب ،” أنا قلق للغاية من أن الطلاب “وأولياء الأمور والأزواج” وأفراد الأسرة “وجميع المعلومات الحساسة للمقترضين يتم التعامل معها من قبل أعضاء سرية في فريق Doge لأغراض غير واضحة وبدون حمامات للمنع أو الاستخدام غير المألوف”. ذكرت صحيفة واشنطن بوست سابقًا أن دوج قد بدأت في إطعام البيانات الفيدرالية الحساسة المستمدة من أنظمة التسجيلات في وزارة التعليم لتحليل إنفاقها.
قالت وزيرة التعليم ليندا مكماهون يوم الثلاثاء إنها كانت تتقدم بخطط لإطلاق أكثر من ألف عامل في القسم ، حيث انضمت إلى مئات آخرين قبلوا “عمليات الاستحواذ” دوج الشهر الماضي. يقول مكماهون إن وزارة التعليم قد فقدت ما يقرب من نصف قوتها العاملة – الخطوة الأولى ، في إلغاء الوكالة تمامًا.
“إن استخدام الذكاء الاصطناعى لتقييم البيانات الحساسة محفوف بالمخاطر الخطيرة التي تتجاوز الكشف غير السليم” ، يكتب كونولي ، محذرا من أن “المدخلات المستخدمة والمعلمات المحددة للتحليل قد تكون معيبة ، قد يتم تقديم أخطاء من خلال تصميم برنامج الذكاء الاصطناعي ، وقد يسيء الموظفون توصيات الذكاء الاصطناعي ، بين المخاوف الأخرى.”
ويضيف: “بدون غرض واضح وراء استخدام الذكاء الاصطناعى ، والدرابزين لضمان معالجة البيانات المناسبة ، والرقابة والشفافية الكافية ، فإن تطبيق الذكاء الاصطناعى خطير وربما ينتهك القانون الفيدرالي.”