كشفت تقارير تقنية متطابقة أن شركة OpenAI قررت بشكل مفاجئ إيقاف تطبيق Sora، وهو التطبيق الذي قدّم للمستخدمين تجربة إنشاء مقاطع فيديو اعتمادًا على الذكاء الاصطناعي خلال فترة تجريبية محدودة.
وأوضحت هذه التقارير أن قرار الإيقاف جاء في وقت كان فيه التطبيق يحظى باهتمام كبير من صناع المحتوى والمستخدمين المهتمين بأدوات الفيديو الذكية، ما جعل خطوة التوقف تثير تساؤلات واسعة حول أسبابها وخلفياتها الحقيقية.
طبيعة تطبيق Sora
أوضحت المصادر أن Sora صُمم في الأساس كتطبيق يعتمد على نموذج ذكاء اصطناعي توليدي للفيديو، أي نموذج قادر على تحويل النصوص أو الأوامر البسيطة إلى مقاطع فيديو قصيرة، مع التحكم في التفاصيل مثل المشهد، والإضاءة، وحركة العناصر داخل الكادر.
وأشارت التقارير إلى أن التطبيق استُخدم في البداية مع عدد محدود من المبدعين والمطورين لاختبار قدراته وحدود التقنية، مع تقديم واجهة بسيطة تجعل إنشاء فيديو احترافي نسبيًا أقرب إلى كتابة جملة أو وصف قصير بدل التعامل مع برامج مونتاج معقدة.
مخاوف تتعلق بالاستخدام وسوء التوظيف
أكدت تحليلات صحفية أن أحد أهم الأسباب المرجّحة وراء إيقاف Sora يتعلق بمخاوف استخدامه في إنشاء محتوى مضلل أو غير آمن، خاصة في ظل الجدل العالمي المتزايد حول تأثير الفيديوهات المزيفة العميقة (Deepfakes).
وأوضحت هذه التحليلات أن أي أداة تتيح إنشاء فيديو واقعي انطلاقًا من أوامر نصية يمكن أن تُستغل بسهولة في إنتاج مقاطع تحمل أشخاصًا في مواقف لم يقوموا بها، أو تركيب أصوات وصور بطرق تخدع المشاهد العادي، وهو ما يضع الشركات المطوّرة تحت ضغط تشريعي وأخلاقي متزايد.
وأشارت التقارير إلى أن OpenAI سبق أن واجهت انتقادات شبيهة مع نماذج نصية وصوتية سابقة، وهو ما جعلها أكثر حذرًا مع النماذج المرئية، خاصة إذا كانت متاحة عبر تطبيق جماهيري يسهل تداوله.
حاجة لمزيد من الضوابط والأدوات
أوضحت مصادر متابعة أن قرار إيقاف التطبيق لا يعني بالضرورة التخلي عن نموذج Sora نفسه، بقدر ما يعكس حاجة الشركة إلى إعادة تقييم طريقة إتاحة هذه التقنية للجمهور.
وأشارت التحليلات إلى أن OpenAI قد تسعى خلال الفترة المقبلة إلى إضافة طبقات حماية جديدة، مثل آليات مدمجة لاكتشاف المحتوى غير اللائق أو المضلل، أو وضع علامات مائية رقمية في الفيديوهات المنتَجة، بحيث يمكن التعرف على أنها صادرة من نموذج ذكاء اصطناعي وليست مقاطع حقيقية.
كما يرجّح أن تعمل الشركة على وضع سياسات استخدام أكثر صرامة، أو قصر الوصول إلى Sora لفترة على جهات محددة مثل المؤسسات الإعلامية أو الشركات الإبداعية، قبل التفكير في طرحه بشكل أوسع لعامة المستخدمين.
مستقبل Sora وتقنيات الفيديو بالذكاء الاصطناعي
أشارت تقارير تحليلية إلى أن إيقاف تطبيق Sora في هذه المرحلة قد يكون خطوة تكتيكية ضمن مسار أطول لتطوير أدوات الفيديو بالذكاء الاصطناعي، وليس نهاية المشروع. وأوضحت أن OpenAI، مثل غيرها من الشركات العاملة في هذا المجال، تتحرك بين خطين متوازيين: من جهة الرغبة في تقديم أدوات قوية تغيّر طريقة إنتاج المحتوى، ومن جهة أخرى الحذر من تبعات إساءة استخدام هذه الأدوات في التضليل أو انتهاك الخصوصية أو الحقوق الفكرية.
وأكدت هذه التقارير أن الفترة المقبلة قد تشهد عودة Sora في صورة مختلفة، إما كتقنية مدمجة في منصات أخرى، أو كتطبيق جديد يأتي مع قواعد أوضح وقيود أقوى، في وقت يتجه فيه قطاع التكنولوجيا كله إلى إعادة رسم حدود ما يمكن وما لا يمكن أن تفعله نماذج الذكاء الاصطناعي في عالم الفيديو.










