OpenAI توقف Sora عن إنشاء مقاطع فيديو مزيفة عميقة لـ MLK استجابة لشكاوى العائلة من تصوير غير محترم
ملخص
أعلنت شركة OpenAI في 17 أكتوبر 2025 (بتوقيت الساحل الشرقي للولايات المتحدة) عن تعليق أداة توليد الفيديو بالذكاء الاصطناعي Sora عن إنتاج محتوى فيديو يخص مارتن لوثر كينغ الابن (MLK Jr.). جاءت هذه الخطوة استجابة لشكوى من إدارة تركة عائلة كينغ بشأن انتشار عدد كبير من مقاطع الفيديو "المسيئة" التي تستخدم تقنية التزييف العميق (deepfake) على وسائل التواصل الاجتماعي. منذ إطلاق تطبيق Sora قبل ثلاثة أسابيع، استغل المستخدمون الأداة لإنتاج كميات كبيرة من مقاطع الفيديو المزيفة فائقة الواقعية التي تظهر الدكتور كينغ وهو يقوم بأفعال بذيئة أو مسيئة أو عنصرية، بما في ذلك السرقة ومطاردة الشرطة، وهي محتويات تعزز الصور النمطية العرقية.
خلفية الحدث
أطلقت OpenAI رسميًا تطبيق Sora للجمهور في أواخر سبتمبر 2025، وهو أداة ذكاء اصطناعي تولد مقاطع فيديو قصيرة بناءً على أوامر نصية. يستخدم التطبيق ميزة "Cameo" التي تسمح للمستخدمين بتحميل مقاطع فيديو وتسجيلات صوتية من زوايا متعددة لإنشاء مقاطع فيديو مزيفة عميقة لأنفسهم أو للآخرين. ومع ذلك، لم يضع النظام قيودًا كافية على استخدام صور الشخصيات التاريخية والمشاهير في مراحله الأولى، مما أدى إلى تمكن المستخدمين من إنشاء محتوى فيديو مزيف لشخصيات تاريخية مثل الأميرة ديانا، وجون إف كينيدي، وكيرت كوبين، ومالكولم إكس دون إذن.
المحتوى المثير للجدل
منذ إطلاق Sora، انتشرت بسرعة على وسائل التواصل الاجتماعي أعداد كبيرة من مقاطع الفيديو المزيفة العميقة التي تصور الدكتور مارتن لوثر كينغ الابن. هذه المقاطع صورت زعيم حركة الحقوق المدنية وهو يلقي تصريحات بذيئة، أو يشارك في سلوك إجرامي، أو يعزز الصور النمطية العرقية. وشملت هذه المقاطع على وجه التحديد:
- مشاهد خيالية للدكتور كينغ وهو يسرق من متجر بقالة.
- مقاطع فيديو مزيفة تظهره وهو يهرب من مطاردة الشرطة.
- جعل الدكتور كينغ يقول تصريحات مسيئة أو عنصرية.
- مشاهد سخيفة أو مهينة أخرى تشوه إرثه التاريخي.
رد OpenAI
في مساء 17 أكتوبر (بتوقيت الساحل الشرقي للولايات المتحدة)، أصدرت OpenAI وإدارة تركة مارتن لوثر كينغ الابن (Estate of Martin Luther King, Jr., Inc.) بيانًا مشتركًا أعلنتا فيه تعليق جميع وظائف توليد الفيديو بالذكاء الاصطناعي التي تصور الدكتور كينغ.
صرحت OpenAI في بيانها: "بينما يوجد حق قوي في حرية التعبير فيما يتعلق بتصوير الشخصيات التاريخية، تعتقد OpenAI أن الشخصيات العامة وعائلاتهم يجب أن يكون لهم في النهاية سيطرة على كيفية استخدام صورهم."
تعهدت الشركة بـ "تعزيز الإجراءات الوقائية ضد الشخصيات التاريخية" والسماح للممثلين المعتمدين أو أصحاب التركة بطلب الانسحاب من الظهور في مقاطع فيديو Sora.
نداء العائلة
كانت بيرنيس كينغ، ابنة الدكتور كينغ، قد نشرت سابقًا على منصة X، قائلة ببساطة: "توقفوا من فضلكم"، معبرة عن استياء العائلة من هذه المقاطع المسيئة التي تستخدم صورة والدها.
حدثت حالات مماثلة مع عائلات مشاهير آخرين متوفين. نشرت زيلدا ويليامز، ابنة الممثل الكوميدي الراحل روبن ويليامز، على إنستغرام: "من فضلكم توقفوا عن إرسال مقاطع فيديو والدي التي أنشأها الذكاء الاصطناعي... هذا ليس ما كان يريده."
الاعتبارات القانونية والأخلاقية
أشارت كريستليا غارسيا، أستاذة قانون الملكية الفكرية في كلية الحقوق بجامعة جورجتاون، إلى أن OpenAI لم تتخذ إجراءً إلا بعد شكوى من إدارة التركة، وهو ما يتماشى مع ممارسة الشركة المعتادة "تصرف أولاً، ثم اطلب المغفرة لاحقًا".
قالت غارسيا: "يبدو أن صناعة الذكاء الاصطناعي تتطور بسرعة كبيرة، ومن الواضح أن السبق في السوق هو العملة الحالية (بالتأكيد يتقدم على النهج المدروس والأخلاقي)."
وأشارت إلى أن قوانين حق الشهرة والتشهير تختلف بين الولايات وقد لا تنطبق دائمًا على محتوى التزييف العميق، مما يعني "أن المخاطر القانونية لاستمرار الشركات في العمل تكون ضئيلة ما لم يشتكِ أحد."
في الولايات التي توفر حماية قوية مثل كاليفورنيا، يمتلك ورثة الشخصيات العامة أو إدارات تركاتهم حقوق الصورة لمدة 70 عامًا بعد وفاة المشاهير.
تعديلات السياسة
في غضون أيام قليلة من إطلاق تطبيق Sora، أعلن الرئيس التنفيذي لشركة OpenAI، سام ألتمان، عن تعديلات على التطبيق، حيث تم تغيير استخدام صور أصحاب الحقوق من السماح الافتراضي إلى نموذج يتطلب الاشتراك الطوعي (opt-in).
ومع ذلك، لم يهدئ هذا التحول في السياسة الجدل تمامًا. كما أعربت استوديوهات هوليوود ووكالات المواهب عن قلقها بشأن إطلاق OpenAI لتطبيق Sora دون الحصول على موافقة أصحاب حقوق النشر.
تأثيرات أوسع
يعكس هذا الحدث التحديات الأوسع التي يواجهها مجال المحتوى الذي يولده الذكاء الاصطناعي:
- حماية حقوق النشر وحقوق الصورة: اتبعت OpenAI نهجًا مشابهًا في تطوير ChatGPT، حيث توصلت إلى اتفاقيات ترخيص مع بعض الناشرين بعد استخدام كميات كبيرة من المحتوى المحمي بحقوق النشر، وقد أدت هذه الممارسة إلى العديد من دعاوى انتهاك حقوق النشر.
- مخاطر المعلومات المضللة: يشير النقاد إلى أن تقنية التزييف العميق تطمس الخط الفاصل بين الحقيقة والزيف، مما يزيد من مشكلة "محتوى الذكاء الاصطناعي غير المرغوب فيه" ويهدد بيئة المعلومات.
- آليات المراجعة الأخلاقية: يدعو الخبراء القانونيون والباحثون مطوري الذكاء الاصطناعي إلى إنشاء آليات مراجعة أخلاقية أكثر شمولاً قبل إطلاق المنتجات، بدلاً من اتباع نهج رد الفعل في معالجة المشكلات.
- وضع معايير الصناعة: قد يدفع هذا الحدث صناعة الذكاء الاصطناعي بأكملها نحو وضع معايير أخلاقية موحدة لاستخدام تقنية التزييف العميق.
الوضع الحالي لتطبيق Sora
لا يزال Sora حاليًا في مرحلة الدعوة، ومتاحًا فقط لعدد محدود من المستخدمين. وفقًا لـ OpenAI، تجاوزت تنزيلات التطبيق مليون مرة في أقل من خمسة أيام بعد إطلاقه، مما يدل على الاهتمام القوي في السوق بأدوات توليد الفيديو بالذكاء الاصطناعي.
ومع ذلك، فإن استراتيجية التطبيق في إجراءات الحماية الأمنية، التي تعتمد على "أطلق النار أولاً، ثم صوب لاحقًا"، قد أثارت قلق محامي الملكية الفكرية، والشخصيات العامة، والباحثين في مجال المعلومات المضللة.
آفاق المستقبل
صرحت OpenAI بأنها ستواصل توسيع وظائف Sora مع تعزيز آليات التحكم في المحتوى. تخطط الشركة لدمج أنظمة أكثر تقدمًا للكشف عن المحتوى الضار، وقد تتعاون مع إدارات تركات أخرى لإنشاء آليات أكثر كمالًا لحماية حقوق الصورة.
يسلط هذا الحدث الضوء على الحاجة إلى إيجاد توازن بين الابتكار التكنولوجي وحرية التعبير وحماية الكرامة الفردية في عصر التطور السريع للذكاء الاصطناعي. مع التقدم المستمر في تقنية التزييف العميق، يجب أن يستمر الحوار بين مطوري التكنولوجيا، وعلماء الأخلاق، وحراس التراث الثقافي لضمان ألا يأتي الابتكار على حساب الكرامة.
روابط ذات صلة:
- بيان OpenAI الرسمي: منشور على منصة X
- مدونة سام ألتمان لتحديثات Sora: تحديث Sora رقم 1