في عام 2025، سيكون من الشائع التحدث مع وكيل الذكاء الاصطناعي الشخصي الذي يعرف جدولك الزمني ودائرة أصدقائك والأماكن التي تذهب إليها. سيتم بيع هذا باعتباره راحة تعادل الحصول على مساعد شخصي غير مدفوع الأجر. تم تصميم هذه العناصر المجسمة لدعمنا وسحرنا بحيث ندمجهم في كل جزء من حياتنا، مما يمنحهم إمكانية الوصول العميق إلى أفكارنا وأفعالنا. ومع التفاعل الصوتي، ستشعر بهذه العلاقة الحميمة أقرب.
يأتي هذا الشعور بالراحة من وهم أننا نتعامل مع شيء يشبه الإنسان حقًا، وهو وكيل يقف إلى جانبنا. وبطبيعة الحال، يخفي هذا المظهر نوعا مختلفا تماما من النظام في العمل، نظام يخدم الأولويات الصناعية التي لا تتماشى دائما مع أولوياتنا. سيكون لدى عملاء الذكاء الاصطناعي الجدد قوة أكبر بكثير لتوجيه ما نشتريه، وأين نذهب، وما نقرأه بمهارة. هذه كمية غير عادية من القوة. تم تصميم عملاء الذكاء الاصطناعي ليجعلونا ننسى ولاءهم الحقيقي عندما يهمسون لنا بنبرة تشبه أصوات البشر. هذه هي محركات التلاعب، التي يتم تسويقها على أنها وسائل راحة سلسة.
من الأرجح أن يمنح الأشخاص إمكانية الوصول الكامل إلى وكيل الذكاء الاصطناعي المفيد الذي يبدو وكأنه صديق. وهذا يجعل البشر عرضة للتلاعب من قبل الآلات التي تفترس حاجة الإنسان للتواصل الاجتماعي في وقت الوحدة والعزلة المزمنة. تصبح كل شاشة مسرحًا خوارزميًا خاصًا، يعرض واقعًا مصممًا ليكون مقنعًا لأقصى حد لجمهور واحد.
هذه هي اللحظة التي حذرنا منها الفلاسفة لسنوات. قبل وفاته، كتب الفيلسوف وعالم الأعصاب دانييل دينيت أننا نواجه خطرًا جسيمًا من أنظمة الذكاء الاصطناعي التي تحاكي البشر: “هؤلاء الأشخاص المزيفون هم أخطر المصنوعات اليدوية في تاريخ البشرية… يصرفوننا ويربكوننا، ومن خلال استغلال مخاوفنا وقلقنا الذي لا يقاوم، سيقودنا إلى التجربة، ومن هناك، إلى الإذعان لخضوعنا.
يمثل ظهور وكلاء الذكاء الاصطناعي الشخصي شكلاً من أشكال التحكم المعرفي الذي يتجاوز الأدوات الفظة لتتبع ملفات تعريف الارتباط والإعلانات السلوكية نحو شكل أكثر دقة من السلطة: التلاعب بالمنظور نفسه. ولم تعد السلطة بحاجة إلى ممارسة سلطتها بيد مرئية تتحكم في تدفق المعلومات؛ إنها تمارس نفسها من خلال آليات غير محسوسة للمساعدة الخوارزمية، وتشكل الواقع ليناسب رغبات كل فرد. يتعلق الأمر بتشكيل ملامح الواقع الذي نعيش فيه.
هذا التأثير على العقول هو أ النفسية والسياسية النظام: إنه يوجه البيئات التي تولد فيها أفكارنا وتطورها ويتم التعبير عنها. تكمن قوتها في حميميتها، فهي تتسلل إلى جوهر ذاتيتنا، وتحرف مشهدنا الداخلي دون أن ندرك ذلك، كل ذلك مع الحفاظ على وهم الاختيار والحرية. ففي النهاية، نحن من نطلب من الذكاء الاصطناعي تلخيص تلك المقالة أو إنتاج تلك الصورة. ربما نمتلك قوة التحفيز، لكن الفعل الحقيقي يكمن في مكان آخر: تصميم النظام نفسه. وكلما كان المحتوى أكثر تخصيصًا، زادت فعالية النظام في تحديد النتائج مسبقًا.
خذ بعين الاعتبار الآثار الأيديولوجية لهذه السياسة النفسية. اعتمدت الأشكال التقليدية للسيطرة الأيديولوجية على آليات علنية مثل الرقابة والدعاية والقمع. وفي المقابل، تعمل الحوكمة الخوارزمية اليوم تحت الرادار، وتتسلل إلى النفس. إنه تحول من فرض السلطة خارجياً إلى استيعاب منطقها. المجال المفتوح لشاشة المطالبة هو عبارة عن غرفة صدى لراكب واحد.
يقودنا هذا إلى الجانب الأكثر انحرافًا: سيولد عملاء الذكاء الاصطناعي شعورًا بالراحة والسهولة مما يجعل استجوابهم يبدو سخيفًا. من يجرؤ على انتقاد نظام يقدم كل شيء في متناول يدك، ويلبي كل الأذواق والاحتياجات؟ كيف يمكن للمرء أن يعترض على عمليات إعادة مزج لا حصر لها للمحتوى؟ ومع ذلك، فإن ما يسمى بالراحة هو موقع أعمق اغترابنا. قد تبدو أنظمة الذكاء الاصطناعي وكأنها تستجيب لكل رغباتنا، ولكن المجموعة مكدسة: من البيانات المستخدمة لتدريب النظام، إلى القرارات المتعلقة بكيفية تصميمه، إلى الضرورات التجارية والإعلانية التي تشكل المخرجات. سوف نلعب لعبة تقليد تلعب بنا في النهاية.