يقول جوناس كونست، أستاذ الاتصالات في كلية BI النرويجية للأعمال وأحد مؤلفي التقرير: “إننا ننتقل إلى مرحلة جديدة من الحرب المعلوماتية على منصات وسائل التواصل الاجتماعي، حيث جعلت التطورات التكنولوجية نهج الروبوتات الكلاسيكي عفا عليه الزمن”.
بالنسبة للخبراء الذين أمضوا سنوات في تتبع ومكافحة حملات التضليل، فإن هذه الورقة تمثل مستقبلًا مرعبًا.
تقول نينا يانكوفيتش، قيصرة المعلومات المضللة السابقة في إدارة بايدن والتي تشغل الآن منصب الرئيس التنفيذي لمشروع American Sunlight Project: “ماذا لو لم يكن الذكاء الاصطناعي مجرد معلومات مهلوسة، ولكن الآلاف من روبوتات الدردشة المدعمة بالذكاء الاصطناعي كانت تعمل معًا لإضفاء مظهر الدعم الشعبي حيث لم يكن هناك أي دعم؟ هذا هو المستقبل الذي تتخيله هذه الورقة البحثية – مزارع القزم الروسية التي تتغذى على المنشطات”.
ويقول الباحثون إنه من غير الواضح ما إذا كان هذا التكتيك قد تم استخدامه بالفعل، لأن الأنظمة الحالية المعمول بها لتتبع وتحديد السلوك غير الأصيل المنسق غير قادرة على اكتشافه.
يقول كونست: “بسبب خصائصها المراوغة في تقليد البشر، من الصعب جدًا اكتشافها وتقييم مدى وجودها”. “نحن نفتقر إلى إمكانية الوصول إلى معظم منصات (وسائل التواصل الاجتماعي) لأن المنصات أصبحت مقيدة بشكل متزايد، لذلك من الصعب الحصول على نظرة ثاقبة هناك. من الناحية الفنية، هذا ممكن بالتأكيد. نحن على يقين من أنه قيد الاختبار”.
وأضاف كونست أنه من المرجح أن تظل هذه الأنظمة خاضعة لبعض الإشراف البشري أثناء تطويرها، ويتوقع أنه على الرغم من أنها قد لا يكون لها تأثير هائل على الانتخابات النصفية الأمريكية لعام 2026 في نوفمبر، فمن المرجح جدًا أن يتم نشرها لتعطيل الانتخابات الرئاسية لعام 2028.
الحسابات التي لا يمكن تمييزها عن البشر على منصات التواصل الاجتماعي ليست سوى مشكلة واحدة. بالإضافة إلى ذلك، يقول الباحثون إن القدرة على رسم خرائط للشبكات الاجتماعية على نطاق واسع ستسمح لمنسقي حملات التضليل باستهداف العملاء في مجتمعات معينة، مما يضمن تحقيق أكبر تأثير.
وكتب الباحثون: “باستخدام هذه القدرات، يمكن للأسراب أن تحدد موقعها لتحقيق أقصى قدر من التأثير وتخصيص الرسائل وفقًا للمعتقدات والإشارات الثقافية لكل مجتمع، مما يتيح استهدافًا أكثر دقة من ذلك الذي حدث مع شبكات الروبوت السابقة”.
يمكن لهذه الأنظمة أن تعمل على تحسين نفسها بشكل أساسي، وذلك باستخدام الردود على منشوراتها كتعليقات لتحسين المنطق من أجل توصيل الرسالة بشكل أفضل. وكتب الباحثون: “مع وجود إشارات كافية، يمكنهم إجراء الملايين من اختبارات microA/B، ونشر المتغيرات الفائزة بسرعة الآلة، والتكرار بشكل أسرع بكثير من البشر”.
ومن أجل مكافحة التهديد الذي تفرضه أسراب الذكاء الاصطناعي، يقترح الباحثون إنشاء “مرصد تأثير الذكاء الاصطناعي”، والذي يتألف من أشخاص من مجموعات أكاديمية ومنظمات غير حكومية يعملون على “توحيد الأدلة، وتحسين الوعي الظرفي، وتمكين استجابة جماعية أسرع بدلا من فرض عقوبات من أعلى إلى أسفل على السمعة”.
إحدى المجموعات التي لم يتم تضمينها هي المديرون التنفيذيون من منصات وسائل التواصل الاجتماعي أنفسهم، ويرجع ذلك في المقام الأول إلى اعتقاد الباحثين أن شركاتهم تحفز المشاركة أكثر من أي شيء آخر، وبالتالي ليس لديهم حافز كبير لتحديد هذه الحشود.
يقول كونست: “لنفترض أن أسراب الذكاء الاصطناعي أصبحت متكررة جدًا لدرجة أنك لا تستطيع الوثوق بأي شخص، ويترك الناس المنصة”. “بالطبع، فهذا يهدد النموذج. إذا قاموا فقط بزيادة التفاعل، فمن الأفضل بالنسبة للمنصة عدم الكشف عن ذلك، لأنه يبدو أن هناك المزيد من التفاعل، ومشاهدة المزيد من الإعلانات، سيكون ذلك إيجابيًا لتقييم شركة معينة.”
وبالإضافة إلى الافتقار إلى الإجراءات من جانب المنصات، يعتقد الخبراء أن هناك حافزًا ضئيلًا للحكومات للمشاركة. يقول أوليجنيك: “قد لا يكون المشهد الجيوسياسي الحالي مناسبًا لـ “المراصد” التي تراقب المناقشات عبر الإنترنت بشكل أساسي”. ويتفق يانكوفيتش مع هذا الرأي قائلًا: “الأمر الأكثر رعبًا في هذا المستقبل هو عدم وجود إرادة سياسية كافية لمعالجة الأضرار التي يسببها الذكاء الاصطناعي، مما يعني أن (أسراب الذكاء الاصطناعي) قد تصبح حقيقة قريبًا”.










