OpenAI stoppt Sora-Generierung von MLK-Deepfake-Videos: Reaktion auf Familienbeschwerden über respektlose Darstellungen
Zusammenfassung
OpenAI gab am 17. Oktober 2025 (US-Ostküstenzeit) bekannt, die Produktion von Videoinhalten über Martin Luther King Jr. (MLK Jr.) mit seinem KI-Videogenerierungstool Sora auszusetzen. Dieser Schritt erfolgte als Reaktion auf Beschwerden der Nachlassverwaltung der King-Familie über die Verbreitung zahlreicher "respektloser Darstellungen" in Deepfake-Videos in sozialen Medien. Seit der Veröffentlichung von Sora vor drei Wochen nutzten Nutzer das Tool, um eine große Anzahl hyperrealistischer gefälschter Videos zu erstellen, die Dr. King bei vulgären, beleidigenden oder rassistischen Äußerungen oder Handlungen zeigen, darunter Diebstahl und die Flucht vor der Polizei, was rassistische Stereotypen verstärkt.
Hintergrund des Vorfalls
OpenAI hatte die Sora-Anwendung Ende September 2025 offiziell der Öffentlichkeit vorgestellt. Es handelt sich um ein KI-Tool, das kurze Videos basierend auf Textaufforderungen generiert. Die Anwendung verfügt über eine "Cameo"-Funktion, die es Nutzern ermöglicht, Videos und Sprachaufnahmen aus verschiedenen Blickwinkeln hochzuladen, um Deepfake-Videos von sich selbst oder anderen zu erstellen. Allerdings enthielt das System in der Anfangsphase seiner Veröffentlichung keine ausreichenden Beschränkungen für die Nutzung von Porträts historischer Persönlichkeiten und Prominenter, was dazu führte, dass Nutzer ohne Genehmigung gefälschte Videoinhalte von historischen Persönlichkeiten wie Prinzessin Diana, John F. Kennedy, Kurt Cobain und Malcolm X generieren konnten.
Kontroverse Inhalte
Seit der Einführung von Sora tauchten in den sozialen Medien schnell zahlreiche Deepfake-Videos auf, die Dr. Martin Luther King Jr. betrafen. Diese Videos stellten den Bürgerrechtsführer als jemanden dar, der vulgäre Äußerungen machte, kriminelle Handlungen beging oder rassistische Stereotypen verstärkte. Dazu gehörten insbesondere:
- Fiktive Szenen, in denen Dr. King in einem Lebensmittelgeschäft stiehlt
- Gefälschte Videos, die ihn bei der Flucht vor der Polizei zeigen
- Dr. King, der beleidigende oder rassistische Äußerungen macht
- Andere absurde oder herabwürdigende Szenen, die sein historisches Erbe verzerren
OpenAIs Reaktion
Am Abend des 17. Oktober (US-Ostküstenzeit) veröffentlichten OpenAI und die Nachlassverwaltung von Martin Luther King, Jr., Inc. eine gemeinsame Erklärung, in der sie die Aussetzung aller KI-Videogenerierungsfunktionen ankündigten, die Dr. King darstellen.
OpenAI erklärte in der Stellungnahme: "Obwohl es ein starkes Recht auf freie Meinungsäußerung bei der Darstellung historischer Persönlichkeiten gibt, ist OpenAI der Ansicht, dass Persönlichkeiten des öffentlichen Lebens und ihre Familien letztendlich die Kontrolle darüber haben sollten, wie ihr Bild verwendet wird."
Das Unternehmen versprach, "die Schutzmaßnahmen für historische Persönlichkeiten zu verstärken" und autorisierten Vertretern oder Nachlassverwaltern zu ermöglichen, ein Opt-out für das Erscheinen in Sora-Videos zu beantragen.
Appell der Familie
Dr. Kings Tochter, Bernice King, hatte zuvor auf der sozialen Plattform X kurz und bündig gepostet: "Bitte hört auf." Dies drückte die Unzufriedenheit der Familie mit der unangemessenen Verwendung des Bildes ihres Vaters in Videos aus.
Ähnliche Situationen ereigneten sich auch bei den Familien anderer verstorbener Prominenter. Zelda Williams, die Tochter des verstorbenen Komikers Robin Williams, postete auf Instagram: "Bitte schickt mir keine KI-Videos meines Vaters mehr... Das ist nicht, was er gewollt hätte."
Rechtliche und ethische Überlegungen
Kristelia García, Professorin für Immaterialgüterrecht an der Georgetown University Law Center, wies darauf hin, dass OpenAI erst nach Beschwerden der Nachlassverwaltung gehandelt habe, was der üblichen Praxis des Unternehmens entspreche, "erst zu handeln und dann um Verzeihung zu bitten".
García erklärte: "Die KI-Branche scheint sich sehr schnell zu entwickeln, und der Vorteil des Erstanbieters ist eindeutig die Währung von heute (und hat Vorrang vor einem durchdachten, ethisch orientierten Ansatz)."
Sie merkte an, dass die Persönlichkeitsrechte und Verleumdungsgesetze der einzelnen Bundesstaaten unterschiedlich seien und möglicherweise nicht immer auf Deepfake-Inhalte anwendbar seien, was bedeute, dass "Unternehmen nur ein geringes rechtliches Risiko eingehen, wenn sie weiterarbeiten, es sei denn, jemand beschwert sich."
In Staaten, die einen starken Schutz bieten, wie Kalifornien, besitzen die Erben oder Nachlassverwalter von Persönlichkeiten des öffentlichen Lebens das Recht am eigenen Bild für 70 Jahre nach dem Tod der Berühmtheit.
Politische Anpassungen
Wenige Tage nach der Veröffentlichung der Sora-Anwendung kündigte OpenAI-CEO Sam Altman Änderungen an der Anwendung an, die die Nutzung von Porträts von Rechteinhabern von einer standardmäßigen Erlaubnis zu einem erforderlichen Opt-in-Modus ändern.
Diese politische Wende konnte die Kontroverse jedoch nicht vollständig beruhigen. Hollywood-Studios und Talentagenturen äußerten ebenfalls Bedenken darüber, dass OpenAI die Sora-Anwendung ohne die Zustimmung der Urheberrechtsinhaber eingeführt hatte.
Breitere Auswirkungen
Dieser Vorfall spiegelt die umfassenderen Herausforderungen wider, denen sich der Bereich der KI-generierten Inhalte gegenübersieht:
- Urheber- und Persönlichkeitsrechtsschutz: OpenAI verfolgte einen ähnlichen Ansatz bei der Entwicklung von ChatGPT, indem es große Mengen urheberrechtlich geschützter Inhalte verwendete und erst später Lizenzvereinbarungen mit einigen Verlagen traf. Diese Praxis hat bereits mehrere Urheberrechtsklagen ausgelöst.
- Risiko der Fehlinformation: Kritiker weisen darauf hin, dass die Deepfake-Technologie die Grenze zwischen Realität und Fiktion verwischt, das Problem der "KI-Müllinhalte" verschärft und das Informationsökosystem bedroht.
- Ethische Prüfmechanismen: Rechtsexperten und Forscher fordern, dass KI-Entwickler vor der Produktveröffentlichung umfassendere ethische Prüfmechanismen etablieren sollten, anstatt einen reaktiven Ansatz zur Problemlösung zu verfolgen.
- Etablierung von Industriestandards: Dieser Vorfall könnte die gesamte KI-Branche dazu bewegen, einheitliche ethische Standards für die Nutzung von Deepfake-Technologien zu etablieren.
Aktueller Status der Sora-Anwendung
Sora befindet sich derzeit noch in einer Einladungsphase und ist nur für ausgewählte Nutzer zugänglich. Laut OpenAI wurde die Anwendung in weniger als fünf Tagen nach ihrer Einführung über 1 Million Mal heruntergeladen, was das starke Marktinteresse an KI-Videogenerierungstools zeigt.
Die von der Anwendung bei den Sicherheitsvorkehrungen verfolgte Strategie "erst schießen, dann zielen" hat jedoch bereits Immaterialgüterrechtsanwälte, Persönlichkeiten des öffentlichen Lebens und Forscher im Bereich Fehlinformationen alarmiert.
Zukunftsausblick
OpenAI hat angekündigt, die Funktionen von Sora weiter auszubauen und gleichzeitig die Inhaltskontrollmechanismen zu verstärken. Das Unternehmen plant, fortschrittlichere Systeme zur Erkennung schädlicher Inhalte zu integrieren und möglicherweise mit anderen Nachlassverwaltungen zusammenzuarbeiten, um umfassendere Mechanismen zum Schutz des Persönlichkeitsrechts zu etablieren.
Dieser Vorfall unterstreicht die Notwendigkeit, in einer Zeit rasanter KI-Entwicklung ein Gleichgewicht zwischen technologischer Innovation, Meinungsfreiheit und dem Schutz der persönlichen Würde zu finden. Mit dem Fortschritt der Deepfake-Technologie ist ein kontinuierlicher Dialog zwischen Technologieentwicklern, Ethikern und Hütern des Kulturerbes erforderlich, um sicherzustellen, dass Innovation nicht auf Kosten der Würde geht.
Verwandte Links:
- Offizielle Erklärung von OpenAI: X-Plattform-Beitrag
- Sam Altmans Sora-Update-Blog: Sora Update Number 1