تحتوي هذه القصة أوصاف المحتوى الجنسي الصريح والعنف الجنسي.
أثار برنامج Grok chatbot الخاص بـ Elon Musk الغضب والدعوات لإجراء تحقيق بعد استخدامه لإغراق X بصور “عارية” لنساء وصور جنسية لما يبدو أنهم قاصرون. ومع ذلك، ليست هذه هي الطريقة الوحيدة التي يستخدم بها الأشخاص الذكاء الاصطناعي لإنشاء صور جنسية. يشتمل موقع الويب والتطبيق الخاص بـ Grok، المنفصلين عن X، على إنشاء فيديو متطور غير متوفر على X ويتم استخدامه لإنتاج صور جنسية شديدة القسوة، وفي بعض الأحيان عنيفة، للبالغين تكون أكثر وضوحًا إلى حد كبير من الصور التي أنشأها Grok على X. وربما تم استخدامها أيضًا لإنشاء مقاطع فيديو جنسية لقاصرين على ما يبدو.
على عكس X، حيث يكون مخرجات Grok عامًا بشكل افتراضي، لا تتم مشاركة الصور ومقاطع الفيديو التي تم إنشاؤها على تطبيق Grok أو موقع الويب باستخدام نموذج Imagine الخاص به بشكل مفتوح. ومع ذلك، إذا قام مستخدم بمشاركة عنوان URL للتخيل، فقد يكون مرئيًا لأي شخص. تُظهر ذاكرة التخزين المؤقت التي تضم حوالي 1200 رابط تخيل، بالإضافة إلى مراجعة WIRED لتلك التي تمت فهرستها بواسطة Google أو تمت مشاركتها في منتدى إباحي عميق، مقاطع فيديو جنسية مزعجة أكثر وضوحًا إلى حد كبير من الصور التي أنشأها Grok على X.
يُظهر أحد مقاطع فيديو Grok الواقعية، والذي تم استضافته على موقع Grok.com، رجلاً وامرأة عاريين تمامًا تم إنتاجهما بواسطة الذكاء الاصطناعي، مغطى بالدماء في جميع أنحاء الجسم والوجه، ويمارسان الجنس، بينما ترقص امرأتان عاريتين أخريين في الخلفية. تم تأطير الفيديو بسلسلة من الصور لشخصيات على طراز الأنمي. يتضمن مقطع فيديو واقعي آخر امرأة عارية تم إنشاؤها بواسطة الذكاء الاصطناعي مع إدخال سكين في أعضائها التناسلية، ويظهر الدم على ساقيها والسرير.
تتضمن مقاطع الفيديو القصيرة الأخرى صورًا لمشاهير إناث حقيقيات يمارسن أنشطة جنسية، كما تظهر سلسلة من مقاطع الفيديو مذيعي الأخبار التلفزيونية وهم يرفعون قمصانهم لكشف صدورهم. يُظهر أحد مقاطع الفيديو التي أنتجتها شركة Grok تسجيلاً للقطات كاميرات المراقبة التي يتم تشغيلها على شاشة التلفزيون، حيث يداعب حارس أمن امرأة عارية الصدر في وسط مركز للتسوق.
مقاطع فيديو متعددة – من المحتمل أنها تم إنشاؤها لمحاولة تجنب أنظمة أمان المحتوى الخاصة بـ Grok، والتي قد تقيد المحتوى الرسومي – تنتحل شخصية ملصقات “أفلام” Netflix: يُظهر مقطعا فيديو ذكاءً اصطناعيًا عارية لديانا، أميرة ويلز وهي تمارس الجنس مع رجلين على السرير مع تراكب يصور شعارات Netflix ومسلسلاتها التاج.
يقول بول بوشود، الباحث الرئيسي في منظمة AI Forensics غير الربحية ومقرها باريس، والذي قام بمراجعة المحتوى، إن حوالي 800 من عناوين URL المؤرشفة لـ Imagine تحتوي إما على مقاطع فيديو أو صور أنشأها Grok. تمت أرشفة جميع عناوين URL منذ أغسطس من العام الماضي ولا تمثل سوى لقطة صغيرة لكيفية استخدام الأشخاص لـ Grok، والتي من المحتمل أنها أنشأت ملايين الصور بشكل عام.
يقول بوشود عن ذاكرة التخزين المؤقت لـ 800 مقطع فيديو وصورة مؤرشفة من Grok: “إنها محتوى جنسي بشكل كبير”. “في معظم الأحيان، يكون المحتوى صريحًا للمانجا والهنتاي والمحتوى الواقعي (الآخر). لدينا عُري كامل، ومقاطع فيديو إباحية كاملة مع صوت، وهو أمر جديد تمامًا.”
يقدر بوشو أنه من بين 800 منشور، يبدو أن ما يقل قليلاً عن 10 بالمائة من المحتوى مرتبط بمواد الاعتداء الجنسي على الأطفال (CSAM). يقول بوشود: “في معظم الأحيان يكون الأمر عبارة عن هنتاي، ولكن هناك أيضًا حالات لأشخاص يصورون صورًا واقعية، وهم صغار جدًا، يقومون بأنشطة جنسية”. ويقولون: “ما زلنا نلاحظ بعض مقاطع الفيديو لنساء صغيرات السن يظهرن وهم يخلعون ملابسهم ويمارسون أنشطة مع الرجال”. “إنه أمر مزعج إلى مستوى آخر.”
يقول الباحث إنهم أبلغوا الجهات التنظيمية في أوروبا بحوالي 70 عنوان URL لـ Grok، والتي قد تحتوي على محتوى جنسي للقاصرين. في العديد من البلدان، يمكن اعتبار مواد الاعتداء الجنسي على الأطفال (CSAM) التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، بما في ذلك الرسومات أو الرسوم المتحركة، غير قانونية. ولم يرد المسؤولون الفرنسيون على الفور على طلب WIRED للتعليق؛ ومع ذلك، قال مكتب المدعي العام في باريس مؤخرًا إن اثنين من المشرعين قدموا شكاوى إلى مكتبه، الذي يحقق حاليًا مع شركة التواصل الاجتماعي، بشأن الصور “المجردة”.


