OpenAI suspende la generación de videos deepfake de MLK con Sora en respuesta a quejas familiares por representaciones irrespetuosas
Resumen
OpenAI anunció el 17 de octubre de 2025 (hora del este de EE. UU.) la suspensión de la creación de contenido de video de Martin Luther King Jr. (MLK Jr.) con su herramienta de generación de video de IA, Sora. Esta medida se tomó en respuesta a las quejas de la administración del patrimonio de la familia King sobre la proliferación de numerosos videos deepfake con "representaciones irrespetuosas" en las redes sociales. Desde el lanzamiento de la aplicación Sora hace tres semanas, los usuarios han utilizado la herramienta para crear una gran cantidad de videos falsos hiperrealistas que muestran al Dr. King realizando actos vulgares, ofensivos o racistas, incluyendo contenido que refuerza estereotipos raciales como robos o persecuciones policiales.
Antecedentes del incidente
OpenAI lanzó oficialmente al público la aplicación Sora a finales de septiembre de 2025, una herramienta de IA que genera videos cortos a partir de indicaciones de texto. La aplicación incorpora una función "Cameo" que permite a los usuarios subir videos desde múltiples ángulos y grabaciones de voz para crear deepfakes de sí mismos o de otras personas. Sin embargo, en su lanzamiento inicial, el sistema no estableció suficientes restricciones sobre el uso de la imagen de figuras históricas y celebridades, lo que permitió a los usuarios generar contenido de video falso de personajes históricos como la Princesa Diana, John F. Kennedy, Kurt Cobain y Malcolm X sin autorización.
Contenido que generó controversia
Desde el lanzamiento de Sora, una gran cantidad de videos deepfake que involucran al Dr. Martin Luther King Jr. aparecieron rápidamente en las redes sociales. Estos videos retrataban al líder del movimiento por los derechos civiles pronunciando comentarios vulgares, participando en actos criminales o reforzando estereotipos raciales. Específicamente, incluían:
- Escenas ficticias del Dr. King robando en una tienda de comestibles.
- Creación de videos falsos de él evadiendo la persecución policial.
- Hacer que el Dr. King pronunciara comentarios ofensivos o racistas.
- Otras escenas absurdas o denigrantes que distorsionaban su legado histórico.
Respuesta de OpenAI
La noche del 17 de octubre (hora del este de EE. UU.), OpenAI y la Fundación del Patrimonio de Martin Luther King Jr. (Estate of Martin Luther King, Jr., Inc.) emitieron un comunicado conjunto anunciando la suspensión de todas las funciones de generación de video de IA que representaban al Dr. King.
En el comunicado, OpenAI declaró: "Aunque existe un fuerte interés en la libertad de expresión al representar figuras históricas, OpenAI cree que las figuras públicas y sus familias deberían tener, en última instancia, control sobre cómo se utiliza su imagen".
La compañía se comprometió a "reforzar las salvaguardias para las figuras históricas" y permitir que los representantes autorizados o los propietarios del patrimonio soliciten la exclusión voluntaria de aparecer en los videos de Sora.
Llamamiento de la familia
Bernice King, hija del Dr. King, había publicado previamente en la plataforma social X, escribiendo concisamente: "Por favor, deténganse", expresando la insatisfacción de la familia con el uso inapropiado de la imagen de su padre en estos videos.
Situaciones similares han ocurrido con las familias de otras celebridades fallecidas. Zelda Williams, hija del difunto comediante Robin Williams, publicó en Instagram: "Por favor, dejen de enviarme videos de IA de mi papá... Él no querría esto".
Consideraciones legales y éticas
Kristelia García, profesora de derecho de propiedad intelectual en la Facultad de Derecho de la Universidad de Georgetown, señaló que OpenAI solo actuó después de las quejas del patrimonio, lo que se alinea con la práctica constante de la compañía de "actuar primero y pedir perdón después".
García afirmó: "La industria de la IA parece moverse muy rápido, y la ventaja de ser el primero en el mercado es claramente la moneda de hoy (ciertamente por encima de un enfoque reflexivo y ético)".
Señaló que las leyes estatales sobre el derecho a la publicidad y la difamación varían y pueden no siempre aplicarse al contenido deepfake, lo que significa que "hay poco riesgo legal para que las empresas continúen operando a menos que alguien se queje".
En estados que ofrecen fuertes protecciones, como California, los herederos o administradores del patrimonio de una figura pública poseen los derechos de imagen hasta 70 años después de la muerte de la celebridad.
Ajustes de política
A los pocos días del lanzamiento de la aplicación Sora, el CEO de OpenAI, Sam Altman, anunció modificaciones en la aplicación, cambiando el uso de la imagen de los titulares de derechos de un permiso predeterminado a un modelo de "opt-in" (requiere consentimiento explícito).
Sin embargo, este cambio de política no ha calmado completamente la controversia. Los estudios de Hollywood y las agencias de talentos también han expresado su preocupación por el lanzamiento de la aplicación Sora por parte de OpenAI sin el consentimiento de los titulares de los derechos de autor.
Implicaciones más amplias
Este incidente refleja los desafíos más amplios que enfrenta el campo del contenido generado por IA:
- Protección de derechos de autor y de imagen: OpenAI también adoptó un enfoque similar durante el desarrollo de ChatGPT, llegando a acuerdos de licencia con algunos editores solo después de usar una gran cantidad de contenido con derechos de autor, una práctica que ya ha provocado múltiples demandas por derechos de autor.
- Riesgo de desinformación: Los críticos señalan que la tecnología deepfake está difuminando la línea entre lo real y lo falso, exacerbando el problema del "contenido basura de IA" y amenazando el ecosistema de la información.
- Mecanismos de revisión ética: Expertos legales e investigadores instan a los desarrolladores de IA a establecer mecanismos de revisión ética más completos antes del lanzamiento de los productos, en lugar de adoptar un enfoque reactivo para la resolución de problemas.
- Establecimiento de estándares de la industria: Este incidente podría impulsar a toda la industria de la IA a establecer estándares éticos uniformes para el uso de la tecnología deepfake.
Estado actual de la aplicación Sora
Sora actualmente sigue en fase de invitación, disponible solo para un número limitado de usuarios. Según OpenAI, la aplicación superó el millón de descargas en menos de cinco días desde su lanzamiento, lo que demuestra el fuerte interés del mercado en las herramientas de generación de video de IA.
Sin embargo, la estrategia de "lanzar primero y apuntar después" adoptada por la aplicación en cuanto a las medidas de seguridad ha alertado a abogados de propiedad intelectual, figuras públicas e investigadores de desinformación.
Perspectivas futuras
OpenAI ha declarado que continuará expandiendo las funcionalidades de Sora, al mismo tiempo que fortalecerá los mecanismos de control de contenido. La compañía planea incorporar sistemas más avanzados de detección de contenido dañino y podría colaborar con otras fundaciones de patrimonio para establecer mecanismos más completos de protección de derechos de imagen.
Este incidente subraya la necesidad de encontrar un equilibrio entre la innovación tecnológica, la libertad de expresión y la protección de la dignidad personal en la era del rápido desarrollo de la IA. A medida que la tecnología deepfake continúa avanzando, es necesario un diálogo continuo entre desarrolladores de tecnología, eticistas y guardianes del patrimonio cultural para garantizar que la innovación no se produzca a expensas de la dignidad.
Enlaces relacionados:
- Declaración oficial de OpenAI: Publicación en la plataforma X
- Blog de actualización de Sora de Sam Altman: Sora Update Number 1