الظاهري الفيروسي يعد مساعد OpenClaw – المعروف سابقًا باسم Moltbot، وقبل ذلك Clawdbot – رمزًا لثورة أوسع جارية يمكن أن تغير بشكل أساسي كيفية عمل الإنترنت. فبدلاً من أن يكون مكانًا يسكنه البشر في المقام الأول، قد تهيمن روبوتات الذكاء الاصطناعي المستقلة على الويب قريبًا.
يُظهر تقرير جديد يقيس نشاط الروبوتات على الويب، بالإضافة إلى البيانات ذات الصلة التي تمت مشاركتها مع WIRED من قبل شركة البنية التحتية للإنترنت Akamai، أن روبوتات الذكاء الاصطناعي تمثل بالفعل حصة كبيرة من حركة مرور الويب. تسلط النتائج الضوء أيضًا على سباق التسلح المتطور بشكل متزايد والذي يتكشف حيث تستخدم الروبوتات تكتيكات ذكية لتجاوز دفاعات مواقع الويب التي تهدف إلى إبعادها.
يقول توشيت بانغراهي، المؤسس المشارك والرئيس التنفيذي لشركة TollBit، وهي شركة تتعقب نشاط تجريف الويب ونشرت التقرير الجديد: “ستكون غالبية الإنترنت عبارة عن حركة مرور آلية في المستقبل”. “إنها ليست مجرد مشكلة حقوق الطبع والنشر، فهناك زائر جديد يظهر على الإنترنت.”
تحاول معظم مواقع الويب الكبيرة الحد من المحتوى الذي يمكن لروبوتات المحتوى أن تستخلصه وتغذيه لأنظمة الذكاء الاصطناعي لأغراض التدريب. (تقوم الشركة الأم لـ WIRED، Condé Nast، بالإضافة إلى ناشرين آخرين، حاليًا بمقاضاة العديد من شركات الذكاء الاصطناعي بسبب انتهاك مزعوم لحقوق الطبع والنشر فيما يتعلق بالتدريب على الذكاء الاصطناعي).
لكن هناك نوعًا آخر من عمليات تجريف مواقع الويب المتعلقة بالذكاء الاصطناعي آخذ في الارتفاع أيضًا. يمكن الآن للعديد من روبوتات الدردشة وأدوات الذكاء الاصطناعي الأخرى استرداد المعلومات في الوقت الفعلي من الويب واستخدامها لزيادة مخرجاتها وتحسينها. قد يشمل ذلك أسعار المنتجات المحدثة، أو جداول دور السينما، أو ملخصات لآخر الأخبار.
وفقًا لبيانات Akamai، فإن حركة الروبوتات المتعلقة بالتدريب آخذة في الارتفاع بشكل مطرد منذ يوليو الماضي. وفي الوقت نفسه، فإن النشاط العالمي من الروبوتات التي تجلب محتوى الويب لعملاء الذكاء الاصطناعي آخذ في الارتفاع أيضًا.
يقول روبرت بلوموفي، كبير مسؤولي التكنولوجيا في شركة Akamai، لمجلة WIRED: “يعمل الذكاء الاصطناعي على تغيير الويب كما نعرفها. وسيحدد سباق التسلح الذي سيعقب ذلك الشكل المستقبلي للويب ومظهره ووظيفته، بالإضافة إلى أساسيات ممارسة الأعمال التجارية”.
في الربع الرابع من عام 2025، تقدر TollBit أن ما متوسطه زيارة واحدة من كل 50 زيارة إلى مواقع عملائها كانت من روبوتات الذكاء الاصطناعي. وفي الأشهر الثلاثة الأولى من عام 2025، كان هذا الرقم واحدًا فقط من كل 200. وتقول الشركة إنه في الربع الرابع، كان أكثر من 13 بالمائة من طلبات الروبوتات تتجاوز ملف robots.txt، وهو ملف تستخدمه بعض مواقع الويب للإشارة إلى الصفحات التي من المفترض أن تتجنبها الروبوتات. يقول TollBit إن حصة روبوتات الذكاء الاصطناعي التي تتجاهل ملف robots.txt زادت بنسبة 400 بالمائة من الربع الثاني إلى الربع الرابع من العام الماضي.
أبلغت TollBit أيضًا عن زيادة بنسبة 336 بالمائة في عدد مواقع الويب التي حاولت حظر روبوتات الذكاء الاصطناعي خلال العام الماضي. يقول بانجراهي إن تقنيات الاستخراج أصبحت أكثر تعقيدًا حيث تحاول المواقع تأكيد السيطرة على كيفية وصول الروبوتات إلى محتواها. تتنكر بعض الروبوتات عن طريق جعل حركة المرور الخاصة بها تبدو وكأنها قادمة من متصفح ويب عادي أو إرسال طلبات مصممة لتقليد كيفية تفاعل البشر عادةً مع مواقع الويب. تشير دراسة TollBit إلى أنه لا يمكن الآن تمييز سلوك بعض عملاء الذكاء الاصطناعي عن حركة مرور الويب البشرية.
تقوم TollBit بتسويق الأدوات التي يمكن لأصحاب مواقع الويب استخدامها لتحصيل رسوم كاشطات الذكاء الاصطناعي مقابل الوصول إلى المحتوى الخاص بهم. وتقدم شركات أخرى، بما في ذلك Cloudflare، أدوات مماثلة. يقول بانغراهي: “أي شخص يعتمد على حركة المرور البشرية على شبكة الإنترنت – بدءًا من الناشرين، ولكن في الأساس الجميع – سوف يتأثر”. “يجب أن تكون هناك طريقة أسرع لتبادل القيمة بين آلة وآلة.”










