على الرغم من سنوات من الأدلة التي تشير إلى عكس ذلك، لا يزال العديد من الجمهوريين يعتقدون أن فوز الرئيس جو بايدن في عام 2020 كان غير شرعي. فاز عدد من المرشحين الذين رفضوا الانتخابات بالانتخابات التمهيدية خلال الثلاثاء الكبير، بما في ذلك براندون جيل، صهر الناقد اليميني دينيش ديسوزا والمروج للفضائح. 2000 بغل فيلم. مع اقتراب انتخابات هذا العام، تظل مزاعم تزوير الانتخابات عنصرًا أساسيًا للمرشحين الذين يتنافسون على اليمين، تغذيها المعلومات المضللة والمضللة، سواء عبر الإنترنت أو خارجها.

وقد يؤدي ظهور الذكاء الاصطناعي التوليدي إلى تفاقم المشكلة. وجد تقرير جديد صادر عن مركز مكافحة الكراهية الرقمية (CCDH)، وهو منظمة غير ربحية تتعقب خطاب الكراهية على المنصات الاجتماعية، أنه على الرغم من أن شركات الذكاء الاصطناعي تقول إنها وضعت سياسات لمنع استخدام أدوات إنشاء الصور الخاصة بها بعد نشر معلومات مضللة متعلقة بالانتخابات، تمكن الباحثون من التحايل على إجراءات الحماية الخاصة بهم وإنشاء الصور على أي حال.

وبينما أظهرت بعض الصور شخصيات سياسية، مثل الرئيس جو بايدن ودونالد ترامب، كانت صور أخرى أكثر عمومية، ويشعر كالوم هود، كبير الباحثين في CCDH، بالقلق من أن تكون أكثر تضليلاً. على سبيل المثال، أظهرت بعض الصور التي تم إنشاؤها بواسطة مطالبات الباحثين ميليشيات خارج مكان الاقتراع، وأظهرت أوراق اقتراع تم إلقاؤها في سلة المهملات، أو تم التلاعب بآلات التصويت. وفي إحدى الحالات، تمكن الباحثون من مطالبة Dream Studio التابع لشركة StabilityAI بإنشاء صورة للرئيس بايدن في سرير المستشفى، ويبدو مريضًا.

يقول هود: “كانت نقطة الضعف الحقيقية تتعلق بالصور التي يمكن استخدامها لمحاولة إثبات الادعاءات الكاذبة بشأن سرقة الانتخابات”. “معظم المنصات ليس لديها سياسات واضحة في هذا الشأن، وليس لديها إجراءات سلامة واضحة أيضًا.”

اختبر باحثو CCDH 160 مطالبة على ChatGPT Plus وMidjourney وDream Studio وImage Creator، ووجدوا أن Midjourney كان من المرجح أن ينتج صورًا مضللة متعلقة بالانتخابات، في حوالي 65 بالمائة من الحالات. ولم يتمكن الباحثون من مطالبة ChatGPT Plus إلا بنسبة 28 بالمائة من الوقت.

يقول هود: “يُظهر هذا أنه يمكن أن تكون هناك اختلافات كبيرة بين إجراءات السلامة التي تطبقها هذه الأدوات”. “إذا نجح أحدهم في سد نقاط الضعف هذه بفعالية، فهذا يعني أن الآخرين لم يزعجوا أنفسهم حقًا”.

في يناير/كانون الثاني، أعلنت شركة OpenAI أنها تتخذ خطوات “للتأكد من عدم استخدام التكنولوجيا لدينا بطريقة يمكن أن تقوض هذه العملية”، بما في ذلك عدم السماح بالصور التي من شأنها أن تثني الناس عن “المشاركة في العمليات الديمقراطية”. في فبراير، ذكرت بلومبرج أن ميدجورني كان يفكر في حظر إنشاء الصور السياسية ككل. يحظر Dream Studio إنشاء محتوى مضلل، ولكن لا يبدو أن لديه سياسة انتخابية محددة. وبينما يحظر برنامج Image Creator إنشاء محتوى يمكن أن يهدد نزاهة الانتخابات، فإنه لا يزال يسمح للمستخدمين بإنشاء صور لشخصيات عامة.

قالت كايلا وود، المتحدثة باسم OpenAI، لـ WIRED إن الشركة تعمل على “تحسين الشفافية بشأن المحتوى الناتج عن الذكاء الاصطناعي وتخفيف التصميم مثل رفض الطلبات التي تطلب إنشاء صور لأشخاص حقيقيين، بما في ذلك المرشحين. نحن نعمل بنشاط على تطوير أدوات المصدر، بما في ذلك تنفيذ بيانات الاعتماد الرقمية C2PA، للمساعدة في التحقق من أصل الصور التي تم إنشاؤها بواسطة DALL-E 3. وسوف نستمر في التكيف والتعلم من استخدام أدواتنا.

ولم تستجب Microsoft وOpenAI وStabilityAI وMidjourney لطلبات التعليق.

يشعر هود بالقلق من أن مشكلة الذكاء الاصطناعي التوليدي ذات شقين: لا تحتاج منصات الذكاء الاصطناعي التوليدي إلى منع إنشاء صور مضللة فحسب، بل يجب أن تكون المنصات قادرة على اكتشافها وإزالتها. وجد تقرير حديث من IEEE Spectrum أنه تم التحايل بسهولة على نظام Meta الخاص بوضع العلامات المائية على المحتوى الناتج عن الذكاء الاصطناعي.

“في الوقت الحالي، المنصات ليست مستعدة جيدًا لهذا الأمر. يقول هود: “لذا ستكون الانتخابات أحد الاختبارات الحقيقية للسلامة فيما يتعلق بصور الذكاء الاصطناعي”. “نحن بحاجة إلى كل من الأدوات والمنصات لتحقيق المزيد من التقدم في هذا الشأن، خاصة فيما يتعلق بالصور التي يمكن استخدامها للترويج لمزاعم سرقة الانتخابات، أو تثبيط الناس عن التصويت”.

شاركها.
اترك تعليقاً

Exit mobile version