OpenAI suspend la génération de vidéos d'hypertrucage de MLK par Sora suite aux plaintes de la famille concernant une représentation irrespectueuse

October 18, 2025
Sora
6 min

Résumé

OpenAI a annoncé le 17 octobre 2025 (heure de l'Est des États-Unis) la suspension de la création de contenu vidéo de Martin Luther King Jr. (MLK Jr.) par son outil de génération vidéo IA, Sora. Cette décision fait suite à des plaintes de la succession de la famille King concernant la prolifération sur les réseaux sociaux d'un grand nombre de vidéos deepfake présentant des "représentations irrespectueuses". Depuis le lancement de l'application Sora il y a trois semaines, des utilisateurs ont exploité l'outil pour produire de nombreuses fausses vidéos hyperréalistes montrant le Dr. King se livrant à des propos vulgaires, offensants ou racistes, y compris des contenus renforçant les stéréotypes raciaux tels que le vol ou la fuite devant la police.

Contexte de l'événement

OpenAI a officiellement lancé l'application Sora au public fin septembre 2025. Il s'agit d'un outil d'IA capable de générer de courtes vidéos à partir d'invites textuelles. L'application intègre une fonctionnalité appelée "Cameo", permettant aux utilisateurs de télécharger des vidéos sous plusieurs angles et des enregistrements vocaux pour créer des vidéos deepfake d'eux-mêmes ou d'autres personnes. Cependant, lors de son lancement initial, le système n'avait pas imposé de restrictions suffisantes sur l'utilisation de l'image de personnalités historiques et de célébrités, ce qui a permis aux utilisateurs de générer sans autorisation de faux contenus vidéo impliquant des figures historiques telles que la princesse Diana, John F. Kennedy, Kurt Cobain et Malcolm X.

Contenu ayant suscité la controverse

Depuis le lancement de Sora, un grand nombre de vidéos deepfake impliquant le Dr. Martin Luther King Jr. sont rapidement apparues sur les réseaux sociaux. Ces vidéos dépeignaient le leader des droits civiques prononçant des propos vulgaires, commettant des actes criminels ou renforçant des stéréotypes raciaux. Plus précisément, cela incluait :

  • Des scènes fictives du Dr. King volant dans une épicerie.
  • La création de fausses vidéos le montrant échappant à une poursuite policière.
  • Faisant tenir au Dr. King des propos offensants ou racistes.
  • D'autres scénarios absurdes ou dégradants dénaturant son héritage historique.

Réponse d'OpenAI

Dans la soirée du 17 octobre (heure de l'Est), OpenAI et la succession de Martin Luther King Jr., Inc. ont publié une déclaration conjointe, annonçant la suspension de toutes les fonctionnalités de génération de vidéos IA représentant le Dr. King.

Dans sa déclaration, OpenAI a affirmé : "Bien qu'il existe un fort intérêt pour la liberté d'expression dans la représentation de figures historiques, OpenAI estime que les personnalités publiques et leurs familles devraient, en fin de compte, avoir le contrôle sur la manière dont leur image est utilisée."

L'entreprise s'est engagée à "renforcer les mesures de protection concernant les figures historiques" et à permettre aux représentants autorisés ou aux propriétaires de la succession de demander à ne pas apparaître dans les vidéos Sora (opt-out).

Appel des familles

Bernice King, la fille du Dr. King, avait précédemment posté sur la plateforme X, écrivant simplement : "S'il vous plaît, arrêtez." exprimant le mécontentement de la famille face à l'utilisation inappropriée de l'image de son père dans ces vidéos.

Des situations similaires se sont produites avec les familles d'autres célébrités décédées. Zelda Williams, la fille du défunt comédien Robin Williams, a posté sur Instagram : "S'il vous plaît, arrêtez de m'envoyer des vidéos IA de mon père... Ce n'est pas ce qu'il aurait voulu."

Considérations légales et éthiques

Kristelia García, professeure de droit de la propriété intellectuelle à la faculté de droit de l'Université de Georgetown, a souligné qu'OpenAI n'avait agi qu'après la plainte de la succession, ce qui est conforme à la pratique habituelle de l'entreprise de "agir d'abord, demander pardon ensuite".

García a déclaré : "L'industrie de l'IA semble se développer très rapidement, et prendre l'avantage sur le marché est clairement la monnaie d'aujourd'hui (certainement prioritaire par rapport à une approche réfléchie et éthique)."

Elle a noté que les lois sur le droit à l'image et la diffamation varient d'un État à l'autre et pourraient ne pas toujours s'appliquer au contenu deepfake, ce qui signifie que "le risque juridique pour les entreprises de continuer à opérer est minime, à moins qu'une plainte ne soit déposée."

Dans les États offrant des protections solides, comme la Californie, les héritiers ou les successions de personnalités publiques détiennent les droits à l'image pendant 70 ans après le décès de la célébrité.

Ajustements de politique

Quelques jours après le lancement de l'application Sora, Sam Altman, PDG d'OpenAI, a annoncé des modifications à l'application, passant l'utilisation de l'image des détenteurs de droits d'une autorisation par défaut à un mode d'adhésion (opt-in).

Cependant, ce changement de politique n'a pas entièrement apaisé la controverse. Les studios de cinéma et les agences de talents d'Hollywood ont également exprimé leur inquiétude quant au lancement de l'application Sora par OpenAI sans le consentement des détenteurs de droits d'auteur.

Implications plus larges

Cet événement reflète les défis plus larges auxquels est confronté le domaine du contenu généré par l'IA :

  1. Protection du droit d'auteur et du droit à l'image : OpenAI a également adopté une approche similaire lors du développement de ChatGPT, ne parvenant à des accords de licence avec certains éditeurs qu'après avoir utilisé massivement du contenu protégé par le droit d'auteur. Cette pratique a déjà donné lieu à plusieurs poursuites pour violation de droits d'auteur.
  2. Risque de désinformation : Les critiques soulignent que la technologie deepfake estompe la frontière entre le vrai et le faux, aggravant le problème du "contenu indésirable IA" et menaçant l'écosystème de l'information.
  3. Mécanismes d'examen éthique : Les experts juridiques et les chercheurs appellent les développeurs d'IA à établir des mécanismes d'examen éthique plus complets avant le lancement des produits, plutôt que d'adopter une approche réactive de résolution des problèmes.
  4. Établissement de normes industrielles : Cet événement pourrait inciter l'ensemble de l'industrie de l'IA à établir des normes éthiques uniformes concernant l'utilisation de la technologie deepfake.

État actuel de l'application Sora

Sora est actuellement en phase d'invitation et n'est accessible qu'à un nombre limité d'utilisateurs. Selon OpenAI, l'application a dépassé le million de téléchargements moins de cinq jours après son lancement, démontrant un vif intérêt du marché pour les outils de génération vidéo IA.

Cependant, la stratégie de "tirer d'abord, viser ensuite" adoptée pour ses mesures de sécurité a déjà alerté les avocats spécialisés en propriété intellectuelle, les personnalités publiques et les chercheurs en désinformation.

Perspectives d'avenir

OpenAI a déclaré qu'elle continuerait à étendre les fonctionnalités de Sora tout en renforçant les mécanismes de contrôle du contenu. L'entreprise prévoit d'intégrer des systèmes de détection de contenu nuisible plus avancés et pourrait collaborer avec d'autres successions pour établir des mécanismes de protection du droit à l'image plus complets.

Cet événement souligne la nécessité de trouver un équilibre entre l'innovation technologique, la liberté d'expression et la protection de la dignité individuelle à l'ère du développement rapide de l'IA. Avec les progrès continus de la technologie deepfake, un dialogue continu est nécessaire entre les développeurs technologiques, les éthiciens et les gardiens du patrimoine culturel afin de garantir que l'innovation ne se fasse pas au détriment de la dignité.


Liens connexes :