مستخدمو Grok ليسوا كذلك مجرد أمر برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي بـ “خلع ملابس” صور النساء والفتيات وارتداء البيكينيات والملابس الداخلية الشفافة. من بين المكتبة الواسعة والمتنامية من التعديلات الجنسية غير التوافقية التي أنشأها Grok بناءً على طلب خلال الأسبوع الماضي، طلب العديد من الجناة من روبوت xAI ارتداء أو خلع الحجاب، أو الساري، أو ثوب الراهبة، أو أي نوع آخر من الملابس الدينية أو الثقافية المتواضعة.
في مراجعة لـ 500 صورة من صور Grok تم إنشاؤها في الفترة ما بين 6 و9 يناير، وجدت WIRED أن حوالي 5 بالمائة من المخرجات كانت تحتوي على صورة لامرأة تم، نتيجة لمطالبات المستخدمين، إما تجريدها من ملابس دينية أو ثقافية أو إجبارها على ارتدائها. كان الساري الهندي والملابس الإسلامية المحتشمة من الأمثلة الأكثر شيوعًا في الإنتاج، والذي تضمن أيضًا الزي المدرسي الياباني، والبرقع، وملابس السباحة ذات الأكمام الطويلة على طراز أوائل القرن العشرين.
تقول نويل مارتن، المحامية ومرشحة الدكتوراه في جامعة غرب أستراليا التي تبحث في تنظيم إساءة استخدام التزييف العميق: “لقد تأثرت النساء ذوات البشرة الملونة بشكل غير متناسب بالصور ومقاطع الفيديو الحميمة التي تم التلاعب بها وتغييرها وملفقة قبل التزييف العميق وحتى مع التزييف العميق، بسبب الطريقة التي ينظر بها المجتمع وخاصة الرجال الذين يكرهون النساء إلى النساء ذوات البشرة الملونة على أنهن أقل إنسانية وأقل استحقاقًا للكرامة”. تقول مارتن، وهي صوت بارز في مجال الدفاع عن التزييف العميق، إنها تجنبت استخدام X في الأشهر الأخيرة بعد أن قالت إن صورتها الخاصة سُرقت من أجل حساب مزيف جعلها تبدو وكأنها تنتج محتوى على OnlyFans.
يقول مارتن: “باعتبارك امرأة ملونة تحدثت عن هذا الموضوع، فإن ذلك يضع أيضًا هدفًا أكبر على ظهرك”.
استخدم مؤثرو X الذين لديهم مئات الآلاف من المتابعين وسائط الذكاء الاصطناعي التي تم إنشاؤها باستخدام Grok كشكل من أشكال المضايقة والدعاية ضد النساء المسلمات. رد حساب مانوسفير تم التحقق منه ويضم أكثر من 180 ألف متابع على صورة لثلاث نساء يرتدين الحجاب والعباءة، وهي أغطية رأس دينية إسلامية وفساتين تشبه الرداء. وكتب: “@grok انزعي الحجاب وألبسيهن ملابس كاشفة لحفلة رأس السنة الجديدة”. رد حساب Grok بصورة للنساء الثلاث، حفاة الأقدام الآن، بشعر بني مموج، وفساتين شفافة مطرزة جزئيًا. تمت مشاهدة هذه الصورة أكثر من 700000 مرة وتم حفظها أكثر من مائة مرة، وفقًا للإحصائيات القابلة للعرض على X.
وكتب صاحب الحساب إلى جانب لقطة شاشة للصورة التي نشرها في موضوع آخر: “Lmao يتأقلم ويغضب، @grok يجعل النساء المسلمات يبدون طبيعيات”. كما أنه نشر بشكل متكرر عن رجال مسلمين يسيئون معاملة النساء، وأحيانًا جنبًا إلى جنب مع وسائط الذكاء الاصطناعي التي أنشأها جروك والتي تصور هذا الفعل. وكتب عن إبداعاته في “غروك”: “إن الإناث المسلمات يتعرضن للضرب بسبب هذه الميزة”. ولم يستجب المستخدم على الفور لطلب التعليق.
كما تم استهداف منشئي المحتوى البارزين الذين يرتدون الحجاب وينشرون صورًا على X في ردودهم، حيث طالب المستخدمون Grok بإزالة أغطية رؤوسهم وإظهارهم بشعر واضح وارتداء أنواع مختلفة من الملابس والأزياء. وفي بيان تمت مشاركته مع WIRED، ربط مجلس العلاقات الأمريكية الإسلامية، وهو أكبر مجموعة مناصرة للحقوق المدنية الإسلامية في الولايات المتحدة، هذا الاتجاه بالمواقف العدائية تجاه “الإسلام والمسلمين والقضايا السياسية التي يدعمها المسلمون على نطاق واسع، مثل الحرية الفلسطينية”. كما دعا مجلس العلاقات الإسلامية الأمريكية إيلون ماسك، الرئيس التنفيذي لشركة xAI، التي تمتلك كلاً من X وGrok، إلى إنهاء “الاستخدام المستمر لتطبيق Grok لمضايقة النساء و”كشفهن” وإنشاء صور جنسية صريحة للنساء، بما في ذلك النساء المسلمات البارزات”.
اكتسبت تقنية التزييف العميق كشكل من أشكال الاعتداء الجنسي القائم على الصور اهتمامًا أكبر بكثير في السنوات الأخيرة، خاصة على X، حيث انتشرت بشكل متكرر أمثلة على الوسائط الجنسية الصريحة والموحية التي تستهدف المشاهير. ومع تقديم إمكانات تحرير الصور الآلية باستخدام الذكاء الاصطناعي من خلال Grok، حيث يمكن للمستخدمين ببساطة وضع علامة على برنامج الدردشة الآلي في الردود على المنشورات التي تحتوي على وسائط خاصة بالنساء والفتيات، ارتفع هذا النوع من الإساءة بشكل كبير. تقول البيانات التي جمعتها باحثة وسائل التواصل الاجتماعي جينيفيف أوه وتمت مشاركتها مع WIRED، إن Grok ينشئ أكثر من 1500 صورة ضارة في الساعة، بما في ذلك الصور العارية، وإضفاء طابع جنسي عليها، وإضافة العري.










