حذر رئيس شركة أوبن إيه آي ، سام ألتمان ، من أن جهود بروكسل لتنظيم الذكاء الاصطناعي قد تدفع الشركة المصنعة لـ ChatGPT إلى سحب خدماتها من الاتحاد الأوروبي ، في أقوى إشارة حتى الآن على تصاعد الخلاف عبر المحيط الأطلسي حول كيفية التحكم في التكنولوجيا.

وفي حديثه إلى الصحفيين خلال زيارة إلى لندن هذا الأسبوع ، قال ألتمان إن لديه “مخاوف كثيرة” بشأن قانون الذكاء الاصطناعي المزمع وضعه الاتحاد الأوروبي ، والذي من المقرر الانتهاء منه العام المقبل. وأشار على وجه الخصوص إلى تحرك البرلمان الأوروبي هذا الشهر لتوسيع لوائحه المقترحة لتشمل أحدث موجة من تكنولوجيا الذكاء الاصطناعي للأغراض العامة ، بما في ذلك نماذج اللغات الكبيرة مثل OpenAI’s GPT-4.

قال ألتمان: “التفاصيل مهمة حقًا”. “سنحاول الامتثال ، ولكن إذا لم نتمكن من الامتثال ، فسوف نتوقف عن العمل.”

يأتي تحذير ألتمان في الوقت الذي تستعد فيه شركات التكنولوجيا الأمريكية لما يتوقع البعض أنها ستكون معركة طويلة مع المنظمين الأوروبيين حول التكنولوجيا التي هزت الصناعة هذا العام. كما قام الرئيس التنفيذي لشركة Google ، Sundar Pichai ، بجولة في العواصم الأوروبية هذا الأسبوع ، سعيًا للتأثير على صانعي السياسة أثناء تطويرهم “حواجز الحماية” لتنظيم الذكاء الاصطناعي.

تم تصميم قانون الذكاء الاصطناعي الخاص بالاتحاد الأوروبي في البداية للتعامل مع الاستخدامات المحددة عالية الخطورة للذكاء الاصطناعي ، مثل استخدامه في المنتجات الخاضعة للتنظيم مثل المعدات الطبية أو عندما تستخدمها الشركات في قرارات مهمة بما في ذلك منح القروض واتخاذ قرارات التوظيف.

ومع ذلك ، فإن الإحساس الناجم عن إطلاق ChatGPT أواخر العام الماضي تسبب في إعادة التفكير ، حيث وضع البرلمان الأوروبي هذا الشهر قواعد إضافية للأنظمة المستخدمة على نطاق واسع والتي لها تطبيقات عامة تتجاوز الحالات المستهدفة سابقًا. لا يزال الاقتراح بحاجة إلى التفاوض مع الدول الأعضاء والمفوضية الأوروبية قبل أن يدخل القانون حيز التنفيذ بحلول عام 2025.

ستتطلب الخطة الأخيرة من صانعي “النماذج الأساسية” – الأنظمة الكبيرة التي تقف وراء خدمات مثل ChatGPT – تحديد ومحاولة تقليل المخاطر التي يمكن أن تشكلها تقنيتهم ​​في مجموعة واسعة من الإعدادات. سيجعل المتطلب الجديد الشركات التي تطور النماذج ، بما في ذلك OpenAI و Google ، مسؤولة جزئيًا عن كيفية استخدام أنظمة الذكاء الاصطناعي الخاصة بها ، حتى لو لم يكن لديها سيطرة على تطبيقات معينة تم تضمين التكنولوجيا فيها.

ستجبر القواعد الأخيرة أيضًا شركات التكنولوجيا على نشر ملخصات للبيانات المحمية بحقوق الطبع والنشر التي تم استخدامها لتدريب نماذج الذكاء الاصطناعي الخاصة بهم ، مما يفتح الطريق للفنانين وغيرهم لمحاولة المطالبة بالتعويض عن استخدام موادهم.

قال كريستيان بورغرين ، الرئيس الأوروبي لاتحاد صناعة الكمبيوتر والاتصالات ومقره واشنطن ، إن محاولة تنظيم الذكاء الاصطناعي التوليدي في الوقت الذي لا تزال فيه التكنولوجيا في مهدها أظهرت “خوفًا من جانب المشرعين ، الذين يقرؤون العناوين الرئيسية مثل أي شخص آخر”. . وأضاف أن شركات التكنولوجيا الأمريكية قد دعمت خطة الاتحاد الأوروبي السابقة لتنظيم الذكاء الاصطناعي قبل رد الفعل “غير المقبول” على ChatGPT.

حثت شركات التكنولوجيا الأمريكية بروكسل على التحرك بحذر أكبر عندما يتعلق الأمر بتنظيم أحدث تقنيات الذكاء الاصطناعي ، بحجة أن أوروبا يجب أن تستغرق وقتًا أطول لدراسة التكنولوجيا والعمل على كيفية تحقيق التوازن بين الفرص والمخاطر.

التقى بيتشاي بمسؤولين في بروكسل يوم الأربعاء لمناقشة سياسة الذكاء الاصطناعي ، بما في ذلك براندو بينيفي ودراغوش تودوراتش ، النواب الرئيسيين المسؤولين عن قانون الذكاء الاصطناعي. أكد بيتشاي على الحاجة إلى التنظيم المناسب للتكنولوجيا التي لا تخنق الابتكار ، وفقًا لثلاثة أشخاص حضروا هذه الاجتماعات.

التقى بيتشاي أيضًا بتييري بريتون ، رئيس الاتحاد الأوروبي الرقمي المشرف على قانون الذكاء الاصطناعي. قال بريتون لصحيفة فاينانشيال تايمز إنهم ناقشوا تقديم “ميثاق الذكاء الاصطناعي” – وهو مجموعة غير رسمية من الإرشادات التي يجب على شركات الذكاء الاصطناعي الالتزام بها قبل وضع القواعد الرسمية موضع التنفيذ لأنه “لم يكن هناك وقت نضيعه في سباق الذكاء الاصطناعي لبناء مكان آمن. بيئة الإنترنت “.

يزعم منتقدو الولايات المتحدة أن قانون الذكاء الاصطناعي في الاتحاد الأوروبي سيفرض مسؤوليات جديدة واسعة للسيطرة على المخاطر من أحدث أنظمة الذكاء الاصطناعي دون وضع معايير محددة من المتوقع أن يفيوا بها في نفس الوقت.

في حين أنه من السابق لأوانه التنبؤ بالآثار العملية ، فإن الطبيعة المفتوحة للقانون قد تدفع بعض شركات التكنولوجيا الأمريكية إلى إعادة التفكير في مشاركتها في أوروبا ، كما قال بيتر شوارتز ، نائب الرئيس الأول للتخطيط الاستراتيجي في شركة البرمجيات Salesforce.

وأضاف أن بروكسل “ستتصرف دون الإشارة إلى الواقع ، كما فعلت من قبل” وأنه بدون أي شركات أوروبية تقود زمام الأمور في مجال الذكاء الاصطناعي المتقدم ، فإن السياسيين في الكتلة ليس لديهم حافز يذكر لدعم نمو الصناعة. “سيكون في الأساس المنظمون الأوروبيون المنظمون للشركات الأمريكية ، كما كان الحال طوال عصر تكنولوجيا المعلومات.”

قال أليكس إنجلر ، الزميل في معهد بروكينغز بواشنطن ، إن المقترحات الأوروبية ستثبت أنها قابلة للتطبيق إذا أدت إلى “متطلبات مستمرة على الشركات لمواكبة أحدث الأبحاث (حول سلامة الذكاء الاصطناعي) والحاجة إلى تحديد المخاطر وتقليلها باستمرار”. . “يمكن ملء بعض الغموض من قبل المفوضية الأوروبية وهيئات المعايير لاحقًا.”

قال إنجلر إنه بينما يبدو أن القانون يستهدف فقط الأنظمة الكبيرة مثل ChatGPT و Bard chatbot من Google ، إلا أن هناك خطرًا من أنه “سيصيب نماذج مفتوحة المصدر والاستخدام غير الربحي” لأحدث تقنيات الذكاء الاصطناعي.

قال مسؤولون تنفيذيون من OpenAI و Google في الأيام الأخيرة إنهم يدعمون التنظيم النهائي للذكاء الاصطناعي ، على الرغم من أنهم دعوا إلى مزيد من التحقيق والنقاش.

قال كينت ووكر ، رئيس الشؤون العالمية في Google ، في منشور على مدونة الأسبوع الماضي إن الشركة دعمت الجهود المبذولة لوضع المعايير والتوصل إلى اتفاق سياسي واسع النطاق بشأن الذكاء الاصطناعي ، مثل تلك الجارية في الولايات المتحدة والمملكة المتحدة وسنغافورة – مع تجنب الإدلاء بالتعليق بشكل واضح. الاتحاد الأوروبي ، وهو الأبعد في تبني قواعد محددة.

قال إنجلر إن الجدول الزمني السياسي يعني أن بروكسل قد تختار المضي قدمًا في اقتراحها الحالي بدلاً من محاولة صياغة قواعد أكثر تحديدًا مع تطور الذكاء الاصطناعي التوليدي. وأضاف أن قضاء وقت أطول في تنقيح قانون الذكاء الاصطناعي قد يؤدي إلى تأخيره إلى ما بعد فترة الرئاسة الحالية للاتحاد الأوروبي ، وهو أمر قد يعيد الخطة بأكملها إلى لوحة الرسم.

شاركها.
اترك تعليقاً

Exit mobile version