وحتى الآن بعد أن تم تأمين البيانات، يرى مارجوليس وثاكر أن ذلك يثير تساؤلات حول عدد الأشخاص داخل الشركات التي تصنع ألعاب الذكاء الاصطناعي الذين يمكنهم الوصول إلى البيانات التي يجمعونها، وكيف تتم مراقبة وصولهم، ومدى حماية بيانات اعتمادهم. يقول مارجوليس: “هناك آثار متتالية على الخصوصية من هذا”. “كل ما يتطلبه الأمر هو أن يكون لدى موظف واحد كلمة مرور سيئة، ثم نعود إلى نفس المكان الذي بدأنا فيه، حيث أصبح كل شيء مكشوفًا للإنترنت العام.”
وتضيف مارجوليس أن هذا النوع من المعلومات الحساسة حول أفكار الطفل ومشاعره يمكن أن يستخدم في أشكال مروعة من إساءة معاملة الأطفال أو التلاعب بهم. ويقول: “لكي أكون صريحاً، هذا هو حلم الخاطف”. “نحن نتحدث عن المعلومات التي تسمح لشخص ما باستدراج طفل إلى موقف خطير حقًا، وكانت في الأساس في متناول أي شخص.”
يشير مارجوليس وثاكر إلى أنه، بالإضافة إلى تعرضه غير المقصود للبيانات، يظهر بوندو أيضًا – بناءً على ما رأوه داخل وحدة التحكم الإدارية الخاصة به – لاستخدام Gemini من Google وGPT5 من OpenAI، ونتيجة لذلك قد يشارك معلومات حول محادثات الأطفال مع تلك الشركات. رد أنام رافيد من بوندو على هذه النقطة في رسالة بريد إلكتروني، مشيرًا إلى أن الشركة تستخدم “خدمات الذكاء الاصطناعي للمؤسسات التابعة لجهات خارجية لإنشاء استجابات وإجراء فحوصات معينة للسلامة، والتي تتضمن نقل محتوى المحادثة ذي الصلة بشكل آمن للمعالجة.” لكنه يضيف أن الشركة تتخذ الاحتياطات اللازمة “لتقليل ما يتم إرساله، واستخدام الضوابط التعاقدية والفنية، والعمل ضمن تكوينات المؤسسة حيث لا يتم استخدام المطالبات/المخرجات التي يحددها مقدمو الخدمة لتدريب نماذجهم”.
ويحذر الباحثان أيضًا من أن جزءًا من مخاطر شركات ألعاب الذكاء الاصطناعي قد يكون أنها أكثر عرضة لاستخدام الذكاء الاصطناعي في ترميز منتجاتها وأدواتها والبنية التحتية للويب. يقولون إنهم يشتبهون في أن وحدة التحكم Bondu غير الآمنة التي اكتشفوها كانت في حد ذاتها “مشفرة بالحيوية” – تم إنشاؤها باستخدام أدوات برمجة الذكاء الاصطناعي التوليدية التي غالبًا ما تؤدي إلى عيوب أمنية. لم يرد بوندو على سؤال WIRED حول ما إذا كانت وحدة التحكم مبرمجة بأدوات الذكاء الاصطناعي.
تزايدت التحذيرات بشأن مخاطر ألعاب الذكاء الاصطناعي للأطفال في الأشهر الأخيرة، لكنها ركزت إلى حد كبير على التهديد المتمثل في أن تثير محادثات اللعبة موضوعات غير مناسبة أو حتى تقودهم إلى سلوك خطير أو إيذاء النفس. على سبيل المثال، ذكرت شبكة إن بي سي نيوز الشهر الماضي أن ألعاب الذكاء الاصطناعي التي تحدث مراسلوها قدمت تفسيرات مفصلة للمصطلحات الجنسية، ونصائح حول كيفية شحذ السكاكين وادعاءات، بل ويبدو أنها تردد دعاية الحكومة الصينية، حيث تشير على سبيل المثال إلى أن تايوان جزء من الصين.
على النقيض من ذلك، يبدو أن بوندو حاول على الأقل بناء ضمانات في برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي والذي يتيح للأطفال الوصول إليه. وتقدم الشركة مكافأة قدرها 500 دولار لمن يبلغ عن “استجابة غير مناسبة” من اللعبة. وجاء في أحد السطر الموجود على موقع الشركة على الإنترنت: “لدينا هذا البرنامج منذ أكثر من عام ولم يتمكن أحد من جعله يقول أي شيء غير لائق”.
ومع ذلك، في الوقت نفسه، وجد ثاكر ومارجوليس أن بوندو كان يترك في الوقت نفسه جميع البيانات الحساسة لمستخدميه مكشوفة بالكامل. يقول ثاكر: “هذا مزيج مثالي بين السلامة والأمن”. “هل “سلامة الذكاء الاصطناعي” مهمة حتى عندما يتم الكشف عن جميع البيانات؟”
يقول ثاكر إنه قبل النظر في أمن بوندو، كان يفكر في إعطاء ألعاب تدعم الذكاء الاصطناعي لأطفاله، تمامًا كما فعل جاره. رؤية تعرض بوندو للبيانات بشكل مباشر غيرت رأيه.
ويقول: “هل أريد حقاً أن يكون هذا في منزلي؟ لا، لا أريد ذلك”. “إنه مجرد كابوس للخصوصية.”










