لقد حان الأنثروبي ضد قانون إلينوي المقترح المدعوم من OpenAI والذي من شأنه أن يحمي مختبرات الذكاء الاصطناعي من المسؤولية إذا تم استخدام أنظمتها لإحداث ضرر واسع النطاق، مثل الإصابات الجماعية أو أضرار في الممتلكات تزيد عن مليار دولار.
يرسم الصراع حول مشروع قانون الولاية، SB 3444، خطوط معركة جديدة بين Anthropic وOpenAI حول كيفية تنظيم تقنيات الذكاء الاصطناعي. في حين يقول خبراء سياسة الذكاء الاصطناعي إن التشريع لديه فرصة ضئيلة لأن يصبح قانونًا، فإنه مع ذلك كشف عن الانقسامات السياسية بين اثنين من مختبرات الذكاء الاصطناعي الرائدة في الولايات المتحدة والتي يمكن أن تصبح ذات أهمية متزايدة مع تكثيف الشركات المتنافسة نشاط الضغط في جميع أنحاء البلاد.
خلف الكواليس، كانت أنثروبيك تضغط على عضو مجلس الشيوخ عن الولاية بيل كننغهام، راعي SB 3444، ومشرعين آخرين في إلينوي إما لإجراء تغييرات كبيرة على مشروع القانون أو إيقافه كما هو، وفقًا لأشخاص مطلعين على الأمر. في رسالة بالبريد الإلكتروني إلى WIRED، أكد متحدث باسم Anthropic معارضة الشركة لـ SB 3444، وقال إنها أجرت محادثات واعدة مع Cunningham حول استخدام مشروع القانون كنقطة انطلاق لتشريعات الذكاء الاصطناعي المستقبلية.
وقال سيزار فرنانديز، رئيس علاقات الولايات والحكومات المحلية الأمريكية في أنثروبيك، في بيان: “نحن نعارض مشروع القانون هذا. يجب أن يضمن تشريع الشفافية الجيد السلامة العامة والمساءلة للشركات التي تطور هذه التكنولوجيا القوية، وليس توفير بطاقة خروج خالية من السجن ضد أي مسؤولية”. “نحن نعلم أن السيناتور كانينغهام يهتم بشدة بسلامة الذكاء الاصطناعي ونتطلع إلى العمل معه على التغييرات التي من شأنها بدلاً من ذلك ربط الشفافية بالمساءلة الحقيقية للتخفيف من أخطر الأضرار التي يمكن أن تسببها أنظمة الذكاء الاصطناعي الحدودية.”
ولم يستجب ممثلو كانينغهام لطلب التعليق. أرسل متحدث باسم حاكم ولاية إلينوي جيه بي بريتزكر البيان التالي: “بينما سيقوم مكتب الحاكم بمراقبة ومراجعة العديد من مشاريع قوانين الذكاء الاصطناعي التي يتم عرضها عبر الجمعية العامة، لا يعتقد الحاكم بريتزكر أنه ينبغي منح شركات التكنولوجيا الكبرى درعًا كاملاً يتهرب من المسؤوليات التي ينبغي أن تتحملها لحماية المصلحة العامة”.
يعود جوهر الخلاف بين OpenAI وAnthropic حول SB 3444 إلى من يجب أن يكون مسؤولاً في حالة وقوع كارثة مدعومة بالذكاء الاصطناعي – وهو السيناريو الكابوس المحتمل الذي بدأ المشرعون الأمريكيون في مواجهته مؤخرًا فقط. إذا تم إقرار SB 3444، فلن يكون مختبر الذكاء الاصطناعي مسؤولاً إذا استخدم ممثل سيء نموذج الذكاء الاصطناعي الخاص به، على سبيل المثال، لإنشاء سلاح بيولوجي يقتل مئات الأشخاص، طالما قام المختبر بصياغة إطار السلامة الخاص به ونشره على موقعه على الإنترنت.
جادل OpenAI بأن SB 3444 يقلل من خطر حدوث ضرر جسيم من أنظمة الذكاء الاصطناعي الحدودية بينما “لا يزال يسمح لهذه التكنولوجيا بالوصول إلى أيدي الأشخاص والشركات – الصغيرة والكبيرة – في إلينوي”.
تقول الشركة المصنعة لـ ChatGPT إنها عملت مع ولايات مثل نيويورك وكاليفورنيا لإنشاء ما يسمى بالنهج “المنسق” لتنظيم الذكاء الاصطناعي. وقالت ليز بورجوا، المتحدثة باسم OpenAI، في بيان: “في غياب الإجراء الفيدرالي، سنواصل العمل مع الولايات – بما في ذلك إلينوي – للعمل من أجل إطار عمل ثابت للسلامة”. “نأمل أن تشكل قوانين الولاية هذه إطارًا وطنيًا يساعد في ضمان استمرار الولايات المتحدة في الريادة.”
من ناحية أخرى، ترى أنثروبيك أن الشركات التي تعمل على تطوير نماذج الذكاء الاصطناعي الحدودية يجب أن تتحمل المسؤولية جزئيًا على الأقل إذا تم استخدام التكنولوجيا الخاصة بها لإحداث ضرر مجتمعي واسع النطاق.
يقول بعض الخبراء إن مشروع القانون من شأنه أن يفكك اللوائح الحالية التي تهدف إلى ردع الشركات عن التصرف بشكل سيئ. يقول توماس وودسايد، المؤسس المشارك وكبير محللي السياسات في مشروع Secure AI Project، وهي منظمة غير ربحية ساعدت في تطوير قوانين سلامة الذكاء الاصطناعي والدفاع عنها في كاليفورنيا ونيويورك: “المسؤولية موجودة بالفعل بموجب القانون العام وتوفر حافزًا قويًا لشركات الذكاء الاصطناعي لاتخاذ خطوات معقولة لمنع المخاطر المتوقعة من أنظمة الذكاء الاصطناعي الخاصة بها”. “سيتخذ قانون SB 3444 الخطوة القصوى المتمثلة في إلغاء المسؤولية عن الأضرار الجسيمة تقريبًا. لكن إضعاف المسؤولية فكرة سيئة، والتي تعد في معظم الدول أهم شكل من أشكال المساءلة القانونية المعمول بها بالفعل لشركات الذكاء الاصطناعي.”










