OpenAI يرمي دعمها لمشروع قانون ولاية إلينوي الذي من شأنه أن يحمي مختبرات الذكاء الاصطناعي من المسؤولية في الحالات التي تستخدم فيها نماذج الذكاء الاصطناعي لإحداث أضرار مجتمعية خطيرة، مثل الوفاة أو الإصابة الخطيرة لـ 100 شخص أو أكثر أو ما لا يقل عن مليار دولار من الأضرار في الممتلكات.
يبدو أن هذا الجهد يمثل تحولًا في الإستراتيجية التشريعية لشركة OpenAI. حتى الآن، لعبت شركة OpenAI دورًا دفاعيًا إلى حد كبير، حيث عارضت مشاريع القوانين التي كان من الممكن أن تجعل مختبرات الذكاء الاصطناعي مسؤولة عن الأضرار التي تحدثها التكنولوجيا الخاصة بها. أخبر العديد من خبراء سياسة الذكاء الاصطناعي مجلة WIRED أن SB 3444 – الذي يمكن أن يضع معيارًا جديدًا للصناعة – هو إجراء أكثر تطرفًا من مشاريع القوانين التي دعمتها OpenAI في الماضي.
ومن شأن مشروع القانون أن يحمي مطوري الذكاء الاصطناعي الحدودي من المسؤولية عن “الأضرار الجسيمة” التي تسببها نماذجهم الحدودية طالما أنهم لم يتسببوا عن قصد أو بتهور في مثل هذه الحادثة، ونشروا تقارير السلامة والأمن والشفافية على موقعهم الإلكتروني. وهو يُعرّف النموذج الحدودي بأنه أي نموذج ذكاء اصطناعي يتم تدريبه باستخدام أكثر من 100 مليون دولار من التكاليف الحسابية، والتي من المحتمل أن تنطبق على أكبر مختبرات الذكاء الاصطناعي في أمريكا، مثل OpenAI، وGoogle، وxAI، وAnthropic، وMeta.
وقال جيمي راديس، المتحدث باسم OpenAI، في بيان عبر البريد الإلكتروني: “نحن ندعم أساليب مثل هذه لأنها تركز على ما هو أكثر أهمية: الحد من مخاطر الضرر الجسيم من أنظمة الذكاء الاصطناعي الأكثر تقدمًا مع السماح لهذه التكنولوجيا بالوصول إلى أيدي الأشخاص والشركات – الصغيرة والكبيرة – في إلينوي”. “إنها تساعد أيضًا في تجنب خليط من القواعد الخاصة بكل دولة على حدة والتحرك نحو معايير وطنية أكثر وضوحًا واتساقًا.”
وبموجب تعريفه للأضرار الجسيمة، يسرد مشروع القانون بعض المجالات المشتركة المثيرة للقلق بالنسبة لصناعة الذكاء الاصطناعي، مثل الجهات الفاعلة السيئة التي تستخدم الذكاء الاصطناعي لإنشاء سلاح كيميائي أو بيولوجي أو إشعاعي أو نووي. إذا انخرط نموذج الذكاء الاصطناعي في سلوك من تلقاء نفسه، والذي إذا ارتكبه إنسان، فإنه يشكل جريمة جنائية ويؤدي إلى تلك النتائج المتطرفة، فسيكون ذلك أيضًا ضررًا جسيمًا. إذا ارتكب نموذج الذكاء الاصطناعي أيًا من هذه الإجراءات بموجب SB 3444، فقد لا يتحمل مختبر الذكاء الاصطناعي الذي يقف وراء النموذج المسؤولية، طالما لم يكن ذلك مقصودًا وقاموا بنشر تقاريرهم.
لم تقم الهيئات التشريعية الفيدرالية ومجالس الولايات في الولايات المتحدة حتى الآن بتمرير أي قوانين تحدد على وجه التحديد ما إذا كان مطورو نماذج الذكاء الاصطناعي، مثل OpenAI، يمكن أن يكونوا مسؤولين عن هذه الأنواع من الضرر الناجم عن التكنولوجيا الخاصة بهم. ولكن مع استمرار مختبرات الذكاء الاصطناعي في إطلاق نماذج ذكاء اصطناعي أكثر قوة تثير تحديات جديدة تتعلق بالسلامة والأمن السيبراني، مثل كلود ميثوس من Anthropic، تبدو هذه الأسئلة ذات بصيرة متزايدة.
في شهادتها الداعمة لـ SB 3444، دافعت أيضًا عضوة فريق الشؤون العالمية في OpenAI، كيتلين نيدرماير، لصالح إطار عمل فيدرالي لتنظيم الذكاء الاصطناعي. وجه نيدرماير رسالة تتفق مع حملة إدارة ترامب على قوانين سلامة الذكاء الاصطناعي في الولاية، مدعيًا أنه من المهم تجنب “خليط من متطلبات الدولة غير المتسقة التي يمكن أن تخلق احتكاكًا دون تحسين السلامة بشكل هادف”. ويتوافق هذا أيضًا مع وجهة النظر الأوسع لوادي السيليكون في السنوات الأخيرة، والتي جادلت عمومًا بأنه من الأهمية بمكان أن لا يعيق تشريع الذكاء الاصطناعي مكانة أمريكا في السباق العالمي للذكاء الاصطناعي. وفي حين أن قانون SB 3444 هو في حد ذاته قانون سلامة على مستوى الولاية، فقد جادل نيدرماير بأن هذه القوانين يمكن أن تكون فعالة إذا “عززت المسار نحو التنسيق مع الأنظمة الفيدرالية”.
وقال نيدرماير: “في OpenAI، نعتقد أن نجم الشمال في التنظيم الحدودي يجب أن يكون النشر الآمن للنماذج الأكثر تقدمًا بطريقة تحافظ أيضًا على ريادة الولايات المتحدة في الابتكار”.
يقول سكوت ويزر، مدير السياسات في مشروع Secure AI، لمجلة WIRED إنه يعتقد أن فرصة تمرير مشروع القانون هذا ضئيلة، نظرًا لسمعة إلينوي في تنظيم التكنولوجيا بقوة. يقول ويسور: “لقد قمنا باستطلاع آراء الناس في ولاية إلينوي، وسألناهم عما إذا كانوا يعتقدون أنه ينبغي إعفاء شركات الذكاء الاصطناعي من المسؤولية، وقد عارض 90% من الأشخاص ذلك. ولا يوجد سبب يجعل شركات الذكاء الاصطناعي الحالية تواجه مسؤولية مخفضة”.










