بين البرمجيات الخبيثة، على الانترنت انتحال الشخصية والاستيلاء على الحساب، هناك ما يكفي من مشاكل الأمن الرقمي كما هي. ومع ظهور الذكاء الاصطناعي الوكيل، يتم تنفيذ المزيد من الأنشطة من قبل وكلاء نيابة عن البشر، مما يخلق مخاطر مختلفة يمكن أن تنحرف عن مسارها.
الآن، وبالعمل مع المساهمات الأولية من Google وMastercard، قالت رابطة الصناعة التي تركز على المصادقة والمعروفة باسم FIDO Alliance يوم الثلاثاء إنها ستطلق زوجًا من مجموعات العمل لتطوير معايير الصناعة للتحقق من صحة المدفوعات وحمايتها والمعاملات الأخرى التي ينفذها وكلاء الذكاء الاصطناعي.
الهدف هو إنتاج خط أساس وقائي يمكن اعتماده عبر الصناعات. بهذه الطريقة، يمكن للمستخدمين السماح بإجراءات الوكيل باستخدام آليات لا يمكن تصيدها بسهولة، أو الاستيلاء عليها من قبل جهة فاعلة سيئة لإعطاء تعليمات مارقة للوكيل. ستشمل المعايير أيضًا أدوات التشفير التي يمكن أن تستخدمها الخدمات الرقمية للتأكد من أن الوكلاء ينفذون تعليمات الشخص المعتمد بدقة ومشروعية، بالإضافة إلى أطر الحفاظ على الخصوصية لمنح المستخدمين والتجار ومقدمي الخدمات الآخرين القدرة على التحقق من صحة المعاملات التي يبدأها الوكلاء. بمعنى آخر، الهدف من العمل هو إنشاء وسائل حماية ضد اختطاف العملاء أو أي سلوك مارق آخر، بالإضافة إلى آلية الشفافية والمساءلة للانتصاف في حالة حدوث نزاع.
“أصبحت الوكلاء أكثر شيوعًا، وهم ينتقلون إلى الاستخدام السائد، لكن النماذج الموجودة مسبقًا ليست بالضرورة مصممة لهذا النوع من النماذج – فهي لم يتم تصميمها للتفكير في الإجراءات التي يتم تنفيذها نيابة عن المستخدم،” يقول أندرو شيكيار، الرئيس التنفيذي لتحالف FIDO، لمجلة WIRED.
ويضيف: “إذا نظرنا إلى الوراء إلى عملنا في السنوات الأخيرة بشأن مساحة المشكلات الهائلة المتعلقة بكلمات المرور، والتي نشأت منذ عقود مضت. لم يكن الأساس الأمني لما أصبح اقتصادنا المتصل مناسبًا للغرض. نحن الآن على حافة مماثلة مع الوكلاء الوكلاء وتفاعلات الوكلاء، والتجارة الوكلاءية حيث لدينا فرصة لعدم السير في نفس المسار وإنشاء بعض المبادئ الأساسية التي ستسمح بتفاعلات أكثر موثوقية.”
يعد تطوير المعايير الفنية القابلة للتطبيق على نطاق واسع عبر الصناعات وتسهيل إمكانية التشغيل البيني عملية شاقة غالبًا ما تستغرق سنوات. ولكن نظرا للتقدم السريع واعتماد الذكاء الاصطناعي الوكيل، أكد ممثلو تحالف FIDO، وجوجل، وماستركارد جميعا على أن هذه العملية يجب أن تتحرك بسرعة أكبر. ولتحقيق هذه الغاية، تساهم الشركتان بأدوات مفتوحة المصدر في هذه المبادرة. يوفر بروتوكول مدفوعات الوكيل من Google، أو AP2، آلية للتحقق المشفر من أن المستخدم ينوي بالفعل إجراء معاملة معينة بدأها الوكيل. يعد إطار عمل Mastercard’s Verifiable Intent (الذي طورته Google للعمل مع AP2) آلية آمنة للمستخدمين للسماح بإجراءات الوكيل والتحكم فيها.
يقول ستافان باريك، نائب رئيس Google والمدير العام للمدفوعات: “نريد تقديم دليل مشفر على أن المعاملة قد تمت الموافقة عليها من قبل المستخدم نفسه، ولكن مع الحفاظ على خصوصيتها حتى يكون هناك كشف انتقائي مدمج”. “لا يرى اللاعبون المختلفون في النظام البيئي – المنصات والتجار ومقدمو خدمات الدفع والشبكات – إلا المعلومات ذات الصلة بهم، ولكن يتم تنفيذ الإجراء الصحيح في الوقت المناسب. تعد المدفوعات مشكلة معقدة في النظام البيئي”
يقدم باريك مثال الشخص الذي يذهب لشراء زوج من الأحذية الرياضية لكنه يجد أنها بيعت بالكامل. يطلب المشتري من وكيل الذكاء الاصطناعي شراء الأحذية الرياضية بشكل مستقل إذا عادت إلى المخزون وتكلفتها 100 دولار أو أقل. الهدف هو توفير المصادقة والشفافية حول هذه الصفقة، لذلك إذا حدث انخفاض مثالي في الأحذية الرياضية، فسينتهي الأمر بالمستهلك بالحصول على الحذاء المناسب بالسعر الذي يريده.
ويشير باريك إلى أن إنشاء وسائل الحماية الأساسية هذه يعد أمرًا أساسيًا لتعزيز الثقة في الذكاء الاصطناعي الوكيل وتشجيع اعتماد الأدوات التي تعمل بالذكاء الاصطناعي. سواء كان المستخدمون يتطلعون إلى اعتماد قدرات الذكاء الاصطناعي أم لا، فإن حقيقة انتشارها تعني أن الحد الأدنى من حواجز الحماية ضروري في كلتا الحالتين.


