انضم إلى قناة Fox News للوصول إلى هذا المحتوى

بالإضافة إلى إمكانية الوصول الخاص إلى مقالات مختارة ومحتوى مميز آخر باستخدام حسابك – مجانًا.

من خلال إدخال بريدك الإلكتروني والضغط على الاستمرار، فإنك توافق على شروط الاستخدام وسياسة الخصوصية الخاصة بـ Fox News، والتي تتضمن إشعارنا بالحوافز المالية.

يرجى إدخال عنوان بريد إلكتروني صالح.

هل تواجه مشكلة؟ انقر هنا.

ويخشى الخبراء من أن يجد الإرهابيون استخدامات جديدة ومثيرة للمشاكل للذكاء الاصطناعي، بما في ذلك أساليب جديدة لتوصيل المتفجرات وتحسين مبادرات التجنيد عبر الإنترنت.

وكتبت أنطونيا ماري دي ميو، مديرة معهد الأمم المتحدة الإقليمي لبحوث الجريمة والعدالة، في تقرير يبحث في كيفية استخدام الإرهابيين للذكاء الاصطناعي: “الحقيقة هي أن الذكاء الاصطناعي يمكن أن يكون خطيرًا للغاية إذا تم استخدامه بنية خبيثة”.

وأضافت أنه “مع وجود سجل حافل في عالم الجرائم الإلكترونية، فإنها تعتبر أداة قوية يمكن استخدامها بشكل معقول لتسهيل الإرهاب والتطرف العنيف المؤدي إلى الإرهاب”، مستشهدة بالسيارات المفخخة ذاتية القيادة، أو زيادة الهجمات الإلكترونية، أو إيجاد مسارات أسهل لنشر خطاب الكراهية أو التحريض على العنف عبر الإنترنت.

ويخلص التقرير، الذي حمل عنوان “الخوارزميات والإرهاب: الاستخدام الخبيث للذكاء الاصطناعي لأغراض إرهابية”، إلى أن إنفاذ القانون سوف يحتاج إلى البقاء في طليعة الذكاء الاصطناعي.

توم هانكس يحذر من إعلانات الذكاء الاصطناعي لـ “الأدوية العجيبة”: “لا تنخدع”

وكتب دي ميو: “نتطلع إلى أن يكون (هذا التقرير) بمثابة بداية للمحادثات حول الاستخدام الخبيث للذكاء الاصطناعي لأغراض إرهابية”.

وأشار التقرير إلى أن مهمة البقاء أمام الإرهابيين وتوقع كيفية استخدامهم للذكاء الاصطناعي سوف تثبت أنها مهمة عنيدة لأنها تتطلب منهم ليس فقط التفكير في طرق لاستخدام الذكاء الاصطناعي لم يفكر فيها أحد من قبل، ولكن بعد ذلك معرفة كيفية منع شخص ما من استخدام هذه الطريقة ذاتها.

ويدعم التقرير دراسة من التعاون بين مركز التميز لأبحاث الأسلحة التابع لحلف شمال الأطلسي ومعهد الدراسات الاستراتيجية التابع لكلية الحرب التابعة للجيش الأميركي، بعنوان “التقنيات الناشئة والإرهاب: وجهة نظر أميركية”، والتي زعمت أن “الجماعات الإرهابية تستغل هذه الأدوات للتجنيد والهجمات”.

روبوت بست عجلات يتحقق من المواقف الخطيرة حتى لا يضطر البشر إلى ذلك

وكتب المؤلفون في المقدمة: “إن الخط الفاصل بين الواقع والخيال يتلاشى في عصر التطور التكنولوجي السريع، مما يحث الحكومات والصناعات والأوساط الأكاديمية على الاتحاد في صياغة الأطر واللوائح الأخلاقية”.

وأضاف المؤلفون أنه “مع تحول التيارات الجيوسياسية، يؤكد حلف شمال الأطلسي على المسؤولية الوطنية في مكافحة الإرهاب والدعوة إلى القوة الجماعية ضد شبح التهديدات الناجمة عن التكنولوجيا”.

يحذر الخبراء من أن الذكاء الاصطناعي قد يتسبب في “أوبئة كبرى أو حتى جوائح” – ولكن متى سيحدث ذلك؟

وتشير الدراسة إلى استخدامات عامة لـ ChatGPT من OpenAI “لتحسين رسائل التصيد الاحتيالي، وزرع البرامج الضارة في مكتبات الترميز المفتوحة، ونشر المعلومات المضللة وإنشاء دعاية عبر الإنترنت”.

وكتب المؤلفون: “لقد أصبح مجرمو الإنترنت والإرهابيون بسرعة ماهرين في استخدام مثل هذه المنصات ونماذج اللغة الكبيرة بشكل عام لإنشاء مقاطع فيديو مزيفة أو برامج دردشة يتم استضافتها على الويب المظلم للحصول على معلومات شخصية ومالية حساسة أو للتخطيط لهجمات إرهابية أو تجنيد المتابعين”.

وأضافوا أن “هذا الاستخدام الخبيث من المرجح أن يزداد في المستقبل مع تطور النماذج. وسوف يتطلب تخزين المحادثات الحساسة وعمليات البحث على الإنترنت وتوزيعها عبر منصات الذكاء الاصطناعي أو عبر نماذج لغوية كبيرة مزيدًا من الشفافية والضوابط”.

وفي وقت سابق من هذا العام، نشر مركز مكافحة الإرهاب في ويست بوينت بحثا حول هذا الموضوع، ركز على القدرة على تحسين قدرات التخطيط للهجمات الإرهابية، والانتقال إلى ما هو أبعد من مجرد تعزيز ما يفعلونه بالفعل.

ما هو الذكاء الاصطناعي (AI)؟

“وبشكل خاص، قام المؤلفون بالتحقيق في الآثار المحتملة للأوامر التي يمكن إدخالها في هذه الأنظمة والتي تعمل على “كسر حماية” النموذج بشكل فعال، مما يسمح له بإزالة العديد من معاييره وسياساته التي تمنع النموذج الأساسي من تقديم محتوى متطرف أو غير قانوني أو غير أخلاقي”، كما أوضح المؤلفون في ملخصهم.

“باستخدام روايات متعددة، استكشف المؤلفون الطرق المختلفة التي يمكن للمتطرفين من خلالها استغلال خمسة نماذج لغوية كبيرة مختلفة لدعم جهودهم في التدريب، وإجراء التخطيط العملياتي، وتطوير الدعاية.”

وقد كشف اختبارهم أن Bard هو الأكثر قدرة على مقاومة كسر الحماية – أو تجاوز الحواجز الأمنية – يليه كل من نماذج ChatGPT. وبشكل أساسي، وجدوا أن المطالبات غير المباشرة كافية نسبيًا لكسر حماية أحد النماذج في أكثر من نصف الحالات.

وتوصلت الدراسة إلى أن حواجز الحماية من السرقة تحتاج إلى مراجعة مستمرة و”تعاون متزايد بين القطاعين الخاص والعام”، بما في ذلك الأوساط الأكاديمية وشركات التكنولوجيا ومجتمع الأمن.

شاركها.
اترك تعليقاً

Exit mobile version