يحذر الخبراء من أن عصرًا جديدًا مروعًا من صور الاعتداء الجنسي على الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي يجري الآن. ويستخدم المجرمون نماذج ذكاء اصطناعي توليدية مفتوحة المصدر وقابلة للتنزيل، والتي يمكنها إنتاج صور، مما يؤدي إلى تأثيرات مدمرة. يتم استخدام هذه التكنولوجيا لإنشاء مئات الصور الجديدة للأطفال الذين تعرضوا للإيذاء في السابق. يشارك المجرمون مجموعات بيانات من صور الاعتداء التي يمكن استخدامها لتخصيص نماذج الذكاء الاصطناعي، وقد بدأوا في بيع اشتراكات شهرية لمواد الاعتداء الجنسي على الأطفال التي ينشئها الذكاء الاصطناعي (CSAM).

تم تضمين تفاصيل كيفية إساءة استخدام التكنولوجيا في تقرير جديد واسع النطاق أصدرته مؤسسة مراقبة الإنترنت (IWF)، وهي منظمة غير ربحية مقرها في المملكة المتحدة تقوم بمسح وإزالة المحتوى المسيء من الويب. وفي يونيو/حزيران، قال الاتحاد الدولي لرفع الأثقال إنه عثر على سبعة عناوين URL على شبكة الإنترنت المفتوحة تحتوي على مواد يشتبه في أنها من صنع الذكاء الاصطناعي. الآن، وجد التحقيق الذي أجراه في أحد منتديات CSAM على شبكة الإنترنت المظلمة، والذي يقدم لمحة سريعة عن كيفية استخدام الذكاء الاصطناعي، ما يقرب من 3000 صورة تم إنشاؤها بواسطة الذكاء الاصطناعي والتي يعتبرها IWF غير قانونية بموجب قانون المملكة المتحدة.

وتشمل الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي اغتصاب الأطفال الرضع والأطفال الصغار، وتعرض الأطفال المشهورين للإيذاء، بالإضافة إلى محتوى BDSM الذي يظهر المراهقين، وفقًا لبحث IWF. ويقول دان سيكستون، كبير مسؤولي التكنولوجيا في الاتحاد الدولي لرفع الأثقال: “لقد رأينا مطالب ومناقشات وأمثلة فعلية لمواد الاعتداء الجنسي على الأطفال التي تضم مشاهير”. في بعض الأحيان، يقول سيكستون، يتم تقليل عمر المشاهير ليبدو وكأنهم أطفال. وفي حالات أخرى، يتم تصوير المشاهير البالغين على أنهم أولئك الذين يسيئون معاملة الأطفال.

في حين أن التقارير المتعلقة بانتهاكات الاعتداء الجنسي على الأطفال التي ينشئها الذكاء الاصطناعي لا تزال ضئيلة مقارنة بعدد صور ومقاطع الفيديو المسيئة الحقيقية الموجودة على الإنترنت، يقول سيكستون إنه يشعر بالقلق إزاء سرعة التطوير والإمكانات التي يخلقها لأنواع جديدة من الصور المسيئة. تتوافق النتائج مع المجموعات الأخرى التي تحقق في انتشار CSAM عبر الإنترنت. في إحدى قواعد البيانات المشتركة، حدد المحققون في جميع أنحاء العالم 13500 صورة تم إنشاؤها بواسطة الذكاء الاصطناعي للاعتداء والاستغلال الجنسي للأطفال، حسبما قال لويد ريتشاردسون، مدير تكنولوجيا المعلومات في المركز الكندي لحماية الطفل، لمجلة WIRED. يقول ريتشاردسون: “هذا مجرد غيض من فيض”.

كابوس واقعي

توفر المجموعة الحالية من مولدات صور الذكاء الاصطناعي – القادرة على إنتاج أعمال فنية جذابة وصور واقعية وتصميمات غريبة – نوعًا جديدًا من الإبداع ووعدًا بتغيير الفن إلى الأبد. لقد تم استخدامها أيضًا لإنشاء منتجات مزيفة مقنعة، مثل Balenciaga Pope ونسخة مبكرة من اعتقال دونالد ترامب. يتم تدريب الأنظمة على كميات ضخمة من الصور الموجودة، والتي غالبًا ما يتم سحبها من الويب دون إذن، وتسمح بإنشاء الصور من خلال مطالبات نصية بسيطة. إن طلب “فيل يرتدي قبعة” سيؤدي إلى ذلك تمامًا.

ليس من المفاجئ أن المجرمين الذين ينشئون CSAM قد اعتمدوا أدوات إنشاء الصور. يقول سيكستون: “الطريقة التي يتم بها إنشاء هذه الصور هي، عادةً، استخدام برمجيات متاحة بشكل مفتوح”. يشير المخالفون الذين شاهدهم IWF بشكل متكرر إلى Stable Diffusion، وهو نموذج للذكاء الاصطناعي توفره شركة Stability AI ومقرها المملكة المتحدة. ولم تستجب الشركة لطلب WIRED للتعليق. وفي الإصدار الثاني من برنامجها، الذي تم إصداره في نهاية العام الماضي، غيرت الشركة نموذجها لتجعل من الصعب على الأشخاص إنشاء صور CSAM وغيرها من الصور العارية.

يقول سيكستون إن المجرمين يستخدمون الإصدارات القديمة من نماذج الذكاء الاصطناعي ويقومون بضبطها لإنشاء مواد غير قانونية للأطفال. يتضمن ذلك تغذية نموذج بصور إساءة موجودة أو صور لوجوه الأشخاص، مما يسمح للذكاء الاصطناعي بإنشاء صور لأفراد محددين. يقول سيكستون: “إننا نرى نماذج دقيقة تخلق صورًا جديدة للضحايا الحاليين”. ويقول إن الجناة “يتبادلون مئات الصور الجديدة للضحايا الحاليين” ويقدمون طلبات بشأن الأفراد. يقول البحث إن بعض المواضيع في منتديات الويب المظلم تشترك في مجموعات من وجوه الضحايا، وكان أحد المواضيع يسمى: “موارد الصور للذكاء الاصطناعي والفتيات المتخصصات في التزييف العميق”.

شاركها.
اترك تعليقاً

Exit mobile version