تقوم OpenAI ببناء فريق دولي من جماعات الضغط في سعيها للتأثير على السياسيين والمنظمين الذين يزيدون من تدقيقهم على الذكاء الاصطناعي القوي.

وقالت الشركة الناشئة، ومقرها سان فرانسيسكو، لصحيفة “فاينانشيال تايمز” إنها زادت عدد الموظفين في فريق الشؤون العالمية التابع لها من ثلاثة في بداية عام 2023 إلى 35. وتهدف الشركة إلى زيادة هذا العدد إلى 50 بحلول نهاية عام 2024.

وتأتي هذه الدفعة في الوقت الذي تستكشف فيه الحكومات وتناقش التشريعات المتعلقة بسلامة الذكاء الاصطناعي والتي تخاطر بتقييد نمو الشركة الناشئة وتطوير نماذجها المتطورة، التي تدعم منتجات مثل ChatGPT.

“نحن لا نتعامل مع هذا من منظور أننا نحتاج فقط إلى الدخول إلى هناك وإلغاء اللوائح. . . لأنه ليس لدينا هدف تعظيم الربح؛ قالت آنا ماكانجو، نائبة رئيس OpenAI للشؤون الحكومية، في إشارة إلى الذكاء العام الاصطناعي، أو النقطة التي تتمتع فيها الآلات بقدرات معرفية مساوية للبشر: “لدينا هدف يتمثل في التأكد من أن الذكاء الاصطناعي العام يفيد البشرية جمعاء”.

على الرغم من أن قسم الشؤون العالمية يشكل جزءًا صغيرًا من موظفي OpenAI البالغ عددهم 1200 موظف، فهو الوحدة الأكثر دولية في الشركة، ويحتل موقعًا استراتيجيًا في المواقع التي تشهد تقدمًا في تشريعات الذكاء الاصطناعي. ويشمل ذلك الموظفين المتمركزين في بلجيكا والمملكة المتحدة وأيرلندا وفرنسا وسنغافورة والهند والبرازيل والولايات المتحدة.

ومع ذلك، تظل OpenAI متأخرة عن منافسيها من شركات التكنولوجيا الكبرى في هذا الانتشار. وفقا للملفات العامة في الولايات المتحدة، أنفقت شركة ميتا رقما قياسيا قدره 7.6 مليون دولار على التعامل مع الحكومة الأمريكية في الربع الأول من هذا العام، في حين أنفقت شركة جوجل 3.1 مليون دولار وشركة OpenAI 340 ألف دولار. وفيما يتعلق بالدعوة الخاصة بالذكاء الاصطناعي، قامت ميتا بتسمية 15 جماعة ضغط، وجوجل لديها خمسة بينما لدى OpenAI اثنتين فقط.

قال ديفيد روبنسون، رئيس تخطيط السياسات في OpenAI، الذي انضم إلى الشركة في مايو من العام الماضي بعد مسيرة مهنية في المجال الأكاديمي: “عند الدخول، كان لدى (ChatGPT) 100 مليون مستخدم (لكن الشركة كان لديها) ثلاثة أشخاص للقيام بالسياسة العامة”. والاستشارة للبيت الأبيض بشأن سياسة الذكاء الاصطناعي.

وأضاف: “لقد وصل الأمر حرفيًا إلى درجة أنه سيكون هناك شخص رفيع المستوى يرغب في إجراء محادثة، ولم يكن هناك أحد يمكنه الرد على الهاتف”.

ومع ذلك، لا تتعامل وحدة الشؤون العالمية في OpenAI مع بعض الحالات التنظيمية الأكثر صعوبة. وتذهب هذه المهمة إلى فريقها القانوني، الذي يتعامل مع القضايا المتعلقة بمراجعة الجهات التنظيمية في المملكة المتحدة والولايات المتحدة لتحالفها الذي تبلغ قيمته 18 مليار دولار مع مايكروسوفت. والتحقيق الذي أجرته هيئة الأوراق المالية والبورصة الأمريكية بشأن ما إذا كان الرئيس التنفيذي سام ألتمان قد ضلل المستثمرين أثناء إقالته القصيرة من قبل مجلس الإدارة في نوفمبر/تشرين الثاني؛ وتحقيق حماية المستهلك الذي تجريه لجنة التجارة الفيدرالية الأمريكية في الشركة.

وبدلا من ذلك، تركز جماعات الضغط في OpenAI على انتشار تشريعات الذكاء الاصطناعي. تعد المملكة المتحدة والولايات المتحدة وسنغافورة من بين العديد من الدول التي تتعامل مع كيفية إدارة الذكاء الاصطناعي وتتشاور بشكل وثيق مع شركة OpenAI وشركات التكنولوجيا الأخرى بشأن اللوائح التنظيمية المقترحة.

شاركت الشركة في المناقشات حول قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي تمت الموافقة عليه هذا العام، وهو أحد التشريعات الأكثر تقدمًا في السعي لتنظيم نماذج الذكاء الاصطناعي القوية.

كانت شركة OpenAI من بين شركات الذكاء الاصطناعي التي جادلت بأن بعض نماذجها لا ينبغي اعتبارها من بين تلك التي توفر “مخاطر عالية” في المسودات المبكرة للقانون، وبالتالي ستخضع لقواعد أكثر صرامة، وفقا لثلاثة أشخاص مشاركين في المفاوضات. وعلى الرغم من هذه الدفعة، فإن الطرازات الأكثر قدرة لدى الشركة سوف تقع ضمن نطاق القانون.

عارضت شركة OpenAI أيضًا مساعي الاتحاد الأوروبي لفحص جميع البيانات المقدمة لنماذجها الأساسية، وفقًا لأشخاص مطلعين على المفاوضات.

أخبرت الشركة “فاينانشيال تايمز” أن بيانات ما قبل التدريب – مجموعات البيانات المستخدمة لإعطاء نماذج لغوية كبيرة فهما واسعا للغة أو الأنماط – يجب أن تكون خارج نطاق التنظيم لأنها كانت طريقة سيئة لفهم مخرجات نظام الذكاء الاصطناعي. وبدلاً من ذلك، اقترحت أن يكون التركيز على بيانات ما بعد التدريب المستخدمة لضبط النماذج لمهمة معينة.

قرر الاتحاد الأوروبي أنه بالنسبة لأنظمة الذكاء الاصطناعي عالية المخاطر، لا يزال بإمكان المنظمين طلب الوصول إلى بيانات التدريب للتأكد من خلوها من الأخطاء والتحيز.

منذ الموافقة على قانون الاتحاد الأوروبي، قامت شركة OpenAI بتعيين كريس ليهان، الذي عمل في حملة الرئيس بيل كلينتون الرئاسية لآل جور وكان رئيس سياسة Airbnb كنائب للرئيس للأشغال العامة. وستعمل ليهان بشكل وثيق مع ماكانجو وفريقها.

قامت شركة OpenAI أيضًا مؤخرًا بإصطياد جاكوب كوتشارشيك، وهو قائد سابق للمنافسة في Meta. انضم ساندرو جيانيلا، رئيس السياسة والشراكات الأوروبية، في يونيو من العام الماضي بعد العمل في جوجل وسترايب، بينما انضم جيمس هيرستون، رئيس السياسة والشراكات الدولية، من ميتا في مايو من العام الماضي.

شاركت الشركة مؤخرًا في سلسلة من المناقشات مع صانعي السياسات في الولايات المتحدة والأسواق الأخرى حول نموذج محرك الصوت الخاص بـ OpenAI، والذي يمكنه استنساخ وإنشاء أصوات مخصصة، مما أدى إلى تضييق الشركة لخطط إصدارها بعد مخاوف بشأن مخاطر كيفية استخدامه. في سياق الانتخابات العالمية هذا العام.

ويدير الفريق ورش عمل في البلدان التي تواجه انتخابات هذا العام، مثل المكسيك والهند، وينشر إرشادات حول المعلومات المضللة. في البلدان الاستبدادية، تمنح شركة OpenAI إمكانية الوصول الفردي إلى نماذجها “للأفراد الموثوق بهم” في المناطق التي ترى أنها غير آمنة لإطلاق المنتجات فيها.

قال أحد المسؤولين الحكوميين الذين عملوا بشكل وثيق مع OpenAI إن الاهتمام المختلف للشركة كان ضمان أن تكون أي قواعد مرنة في المستقبل وتصبح قديمة مع التقدم العلمي أو التكنولوجي الجديد.

تأمل شركة OpenAI في معالجة بعض آثار عصر وسائل التواصل الاجتماعي، والتي قال ماكانجو إنها أدت إلى “انعدام الثقة بشكل عام في شركات وادي السيليكون”.

وأضافت: “لسوء الحظ، غالبًا ما يرى الناس الذكاء الاصطناعي بنفس العدسة”. “إننا نقضي الكثير من الوقت للتأكد من أن الناس يفهمون أن هذه التكنولوجيا مختلفة تماما، وأن التدخلات التنظيمية التي لها معنى ستكون مختلفة تماما.”

ومع ذلك، فإن بعض الشخصيات الصناعية تنتقد توسع الضغط الذي تمارسه شركة OpenAI.

قال أحد الأشخاص الذين شاركوا بشكل مباشر مع OpenAI في وضع التشريعات: “في البداية، قامت OpenAI بتوظيف أشخاص منخرطين بعمق في سياسة الذكاء الاصطناعي ومتخصصين، في حين أنهم الآن يقومون فقط بتوظيف جماعات ضغط تكنولوجية عادية، وهي استراتيجية مختلفة تمامًا”. .

“إنهم يريدون فقط التأثير على المشرعين بطرق فعلتها شركات التكنولوجيا الكبرى لأكثر من عقد من الزمن”.

وقال روبنسون، رئيس التخطيط في OpenAI، إن فريق الشؤون العالمية لديه أهداف أكثر طموحًا. “المهمة آمنة ومفيدة على نطاق واسع، فماذا يعني ذلك؟ ويعني إنشاء قوانين لا تسمح لنا بالابتكار وتقديم التكنولوجيا المفيدة للناس فحسب، بل تنتهي أيضًا في نهاية المطاف إلى عالم تكون فيه التكنولوجيا آمنة.

شارك في التغطية مادوميتا مورجيا في لندن

بالفيديو: الذكاء الاصطناعي نعمة أم نقمة على البشرية؟ | إف تي تك
شاركها.
اترك تعليقاً

Exit mobile version