لندن — وقعت المملكة المتحدة والولايات المتحدة اتفاقًا تاريخيًا للعمل معًا على اختبار الذكاء الاصطناعي المتقدم (AI).
وجاء في الاتفاقية الموقعة يوم الاثنين أن البلدين سيعملان معًا على تطوير أساليب قوية لتقييم سلامة أدوات الذكاء الاصطناعي والأنظمة التي تدعمها.
وهي أول اتفاقية ثنائية من نوعها.
وقالت وزيرة التكنولوجيا البريطانية ميشيل دونيلان إن هذا هو “التحدي التكنولوجي المحدد لجيلنا”.
وقالت: “لقد كنا واضحين دائمًا أن ضمان التطوير الآمن للذكاء الاصطناعي هو قضية عالمية مشتركة”.
“فقط من خلال العمل معًا يمكننا معالجة مخاطر التكنولوجيا بشكل مباشر وتسخير إمكاناتها الهائلة لمساعدتنا جميعًا على عيش حياة أسهل وأكثر صحة.”
وأضاف وزير الدولة للعلوم والابتكار والتكنولوجيا أن الاتفاقية تعتمد على الالتزامات التي تم التعهد بها في قمة سلامة الذكاء الاصطناعي التي عقدت في بلتشلي بارك في نوفمبر 2023.
شهد هذا الحدث، الذي حضره رؤساء الذكاء الاصطناعي، بما في ذلك سام ألتمان من OpenAI، وديميس هاسابيس من Google DeepMind، والملياردير التكنولوجي إيلون ماسك، إنشاء كل من المملكة المتحدة والولايات المتحدة معاهد سلامة الذكاء الاصطناعي التي تهدف إلى تقييم أنظمة الذكاء الاصطناعي المفتوحة والمغلقة المصدر.
في حين أن الأمور بدت هادئة على جبهة سلامة الذكاء الاصطناعي منذ القمة، إلا أن قطاع الذكاء الاصطناعي نفسه كان مشغولاً للغاية.
لا تزال المنافسة شرسة بين أكبر روبوتات الدردشة المستندة إلى الذكاء الاصطناعي – مثل ChatGPT، وGemini، وClaude.
وحتى الآن، لا تزال الشركات التي تتخذ من الولايات المتحدة مقراً لها، والتي تقف وراء كل هذا النشاط، تتعاون مع مفهوم التنظيم، لكن الهيئات التنظيمية لم تقم بعد بتقليص أي شيء تحاول هذه الشركات تحقيقه.
وبالمثل، لم يطالب المنظمون بالوصول إلى المعلومات التي لا ترغب شركات الذكاء الاصطناعي في مشاركتها، مثل البيانات المستخدمة لتدريب أدواتها أو التكلفة البيئية لتشغيلها.
إن قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي في طريقه إلى أن يصبح قانونًا، وبمجرد دخوله حيز التنفيذ، سيتطلب من مطوري بعض أنظمة الذكاء الاصطناعي أن يكونوا صريحين بشأن مخاطرهم وأن يشاركوا المعلومات حول البيانات المستخدمة.
وهذا أمر مهم، بعد أن قالت شركة OpenAI مؤخرًا إنها لن تطلق أداة استنساخ الصوت التي طورتها بسبب “المخاطر الجسيمة” التي تمثلها التكنولوجيا، خاصة في عام الانتخابات.
في يناير/كانون الثاني، حثت مكالمة آلية مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي يُزعم أنها من الرئيس الأمريكي جو بايدن، الناخبين على تخطي الانتخابات التمهيدية في نيو هامبشاير.
في الوقت الحالي في الولايات المتحدة والمملكة المتحدة، تقوم شركات الذكاء الاصطناعي في الغالب بتنظيم نفسها.
في الوقت الحالي، فإن غالبية أنظمة الذكاء الاصطناعي قادرة فقط على أداء مهام ذكية واحدة والتي عادة ما يكملها الإنسان.
يمكن أن تتراوح هذه المهام، المعروفة باسم الذكاء الاصطناعي “الضيق”، بين التحليل السريع للبيانات أو تقديم الاستجابة المطلوبة للمطالبة.
ولكن هناك مخاوف من أن أدوات الذكاء الاصطناعي “العامة” الأكثر ذكاءً – القادرة على إكمال مجموعة من المهام التي يؤديها البشر عادة – يمكن أن تعرض البشرية للخطر.
وقال البروفيسور السير نايجل شادبولت لبرنامج توداي على بي بي سي: “إن الذكاء الاصطناعي، مثل العلوم الكيميائية والعلوم النووية والعلوم البيولوجية، يمكن تسليحه واستخدامه للخير أو للشر”.
لكن البروفيسور في جامعة أكسفورد قال إن المخاوف بشأن المخاطر الوجودية للذكاء الاصطناعي “مبالغ فيها في بعض الأحيان”.
وقال: “علينا أن نكون داعمين ومقدرين للجهود المبذولة لجعل القوى العظمى في مجال الذكاء الاصطناعي تفكر وتبحث عن المخاطر”.
“نحن بحاجة إلى أن نفهم مدى حساسية هذه النماذج، وكذلك مدى قوتها.”
وقالت جينا ريموندو، وزيرة التجارة الأمريكية، إن الاتفاقية ستمنح الحكومات فهمًا أفضل لأنظمة الذكاء الاصطناعي، مما سيسمح لها بتقديم إرشادات أفضل.
وقالت: “سيؤدي ذلك إلى تسريع عمل معهدينا عبر مجموعة كاملة من المخاطر، سواء بالنسبة لأمننا القومي أو لمجتمعنا الأوسع”.
“توضح شراكتنا أننا لا نهرب من هذه المخاوف – بل نركض نحوها.” — بي بي سي










