الأسلحة البيولوجية القاتلة، وهجمات الأمن السيبراني الآلية، ونماذج الذكاء الاصطناعي القوية التي تفلت من السيطرة البشرية. هذه ليست سوى بعض التهديدات المحتملة التي يشكلها الذكاء الاصطناعي، وفقًا لتقرير جديد للحكومة البريطانية. وتم إصداره للمساعدة في وضع جدول أعمال القمة الدولية حول سلامة الذكاء الاصطناعي التي ستستضيفها المملكة المتحدة الأسبوع المقبل. تم تجميع التقرير بمدخلات من شركات الذكاء الاصطناعي الرائدة مثل وحدة DeepMind التابعة لشركة Google والعديد من الإدارات الحكومية في المملكة المتحدة، بما في ذلك وكالات الاستخبارات.

يقول جو وايت، مبعوث المملكة المتحدة للتكنولوجيا إلى الولايات المتحدة، إن القمة توفر فرصة لجمع الدول وشركات الذكاء الاصطناعي الرائدة معًا لفهم المخاطر التي تشكلها التكنولوجيا بشكل أفضل. يقول وايت، الذي ساعد في التخطيط لقمة الأسبوع المقبل، إن إدارة الجوانب السلبية المحتملة للخوارزميات ستتطلب تعاونًا عضويًا على الطراز القديم. يقول وايت: “هذه ليست تحديات بين الآلة والإنسان”. “هذه تحديات من إنسان إلى إنسان.”

سيلقي رئيس وزراء المملكة المتحدة ريشي سوناك خطابًا غدًا حول كيف أنه بينما يفتح الذكاء الاصطناعي فرصًا للنهوض بالبشرية، فمن المهم أن نكون صادقين بشأن المخاطر الجديدة التي يخلقها للأجيال القادمة.

ستُعقد قمة سلامة الذكاء الاصطناعي في المملكة المتحدة يومي 1 و2 نوفمبر وستركز في الغالب على الطرق التي يمكن للناس من خلالها إساءة استخدام الأشكال المتقدمة من الذكاء الاصطناعي أو فقدان السيطرة عليها. وانتقد بعض خبراء الذكاء الاصطناعي والمديرين التنفيذيين في المملكة المتحدة تركيز الحدث، قائلين إنه يجب على الحكومة إعطاء الأولوية لمزيد من الاهتمامات على المدى القريب، مثل مساعدة المملكة المتحدة على التنافس مع قادة الذكاء الاصطناعي العالميين مثل الولايات المتحدة والصين.

وقد حذر بعض خبراء الذكاء الاصطناعي من أن التصاعد الأخير في النقاش حول سيناريوهات الذكاء الاصطناعي البعيدة، بما في ذلك احتمال انقراض الإنسان، يمكن أن يصرف انتباه المنظمين والجمهور عن مشاكل أكثر إلحاحا، مثل الخوارزميات المتحيزة أو تكنولوجيا الذكاء الاصطناعي التي تعزز الشركات المهيمنة بالفعل.

يتناول تقرير المملكة المتحدة الصادر اليوم الآثار المترتبة على الأمن القومي لنماذج اللغات الكبيرة، وتقنية الذكاء الاصطناعي وراء ChatGPT. يقول وايت إن وكالات الاستخبارات البريطانية تعمل مع Frontier AI Task Force، وهي مجموعة خبراء تابعة للحكومة البريطانية، لاستكشاف سيناريوهات مثل ما يمكن أن يحدث إذا قامت الجهات الفاعلة السيئة بدمج نموذج لغوي كبير مع وثائق حكومية سرية. يشير أحد الاحتمالات المشؤومة التي تمت مناقشتها في التقرير إلى أن النموذج اللغوي الكبير الذي يسرع الاكتشافات العلمية يمكن أن يعزز أيضًا المشاريع التي تحاول صنع أسلحة بيولوجية.

في شهر يوليو/تموز من هذا العام، أخبر داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك الناشئة للذكاء الاصطناعي، أعضاء مجلس الشيوخ الأمريكي أنه في غضون العامين أو الأعوام الثلاثة المقبلة قد يكون من الممكن أن يقترح نموذج لغوي كيفية تنفيذ هجمات واسعة النطاق بالأسلحة البيولوجية. لكن وايت يقول إن التقرير عبارة عن وثيقة رفيعة المستوى وليس المقصود منها “أن تكون بمثابة قائمة تسوق لكل الأشياء السيئة التي يمكن القيام بها”.

بالإضافة إلى الوكالات الحكومية في المملكة المتحدة، تمت مراجعة التقرير الذي صدر اليوم من قبل لجنة تضم خبراء في السياسة والأخلاقيات من مختبر DeepMind للذكاء الاصطناعي التابع لشركة Google، والذي بدأ كشركة ناشئة في مجال الذكاء الاصطناعي في لندن واستحوذت عليه شركة البحث في عام 2014، وشركة Hugging Face، وهي شركة ناشئة. تطوير برمجيات الذكاء الاصطناعي مفتوحة المصدر.

كما تمت استشارة يوشوا بينجيو، أحد “عرابي الذكاء الاصطناعي” الثلاثة الذين فازوا بأعلى جائزة في مجال الحوسبة، جائزة تورينج، لتقنيات التعلم الآلي التي تلعب دوراً أساسياً في طفرة الذكاء الاصطناعي الحالية. قال بينجيو مؤخرًا إن تفاؤله بشأن التكنولوجيا التي ساعد في تعزيزها قد تضاءل، وأن هناك حاجة إلى منظمة جديدة “للدفاع عن الإنسانية” للمساعدة في إبقاء الذكاء الاصطناعي تحت السيطرة.

شاركها.
اترك تعليقاً

Exit mobile version