OpenAI anunció que limitará la creación de deepfakes en Sora 2. Tras una oleada de videos de celebridades generados con el nuevo modelo, la reacción no se hizo esperar y algunos actores lanzaron críticas contra la IA. Uno de ellos es Bryan Cranston, el protagonista de Breaking Bad y Malcolm in the Middle, a quien no le hizo gracia ver videos falsos con su apariencia en todas las redes sociales.

Según Variety, OpenAI ha tomado una postura a favor del actor y prometió que añadirá nuevas protecciones de seguridad a Sora 2. En un comunicado de prensa, el sindicato de actores (SAG-AFTRA) y otras asociaciones de Hollywood mencionaron que han trabajado con OpenAI para fortalecer las barreras en torno a la replicación de la voz y apariencia de los actores.

«Bryan Cranston es uno de los innumerables artistas cuya voz y semejanza están en peligro de apropiación indebida masiva por parte de la tecnología de replicación», dijo el presidente de SAG-AFTRA, Sean Astin. «Me alegro de que OpenAI se haya comprometido a utilizar un protocolo de suscripción, en el que todos los artistas tienen la capacidad de elegir si desean participar en la explotación de su voz y semejanza utilizando la IA».

Astin se refiere a una opción de Sora 2 que permite a los artistas optar para que su imagen no se utilice en la plataforma. Aunque la idea es buena, en la práctica ha resultado ser una pesadilla. El ejemplo más evidente son los videos de Martin Luther King peleando con Malcolm X en la WWE, o los deepfakes de Michael Jackson y el mismo Cranston en su papel de Walter White.

Es una «tontería y pérdida de tiempo», acusan los afectados por los videos de Sora 2

La situación con Sora 2 escaló a tal grado que la hija de Robin Williams pidió a los fanáticos que dejaran de enviarle videos de su padre generados con IA. «Es una tontería, es una pérdida de tiempo y energía, y créanme, NO es lo que él querría», dijo Zelda Williams. «Ver cómo el legado de personas reales se reduce a «esto se parece vagamente a ellos, así que es suficiente», solo para que otras personas puedan producir horrible basura en TikTok manipulándolos, es una locura».

Ante las críticas, OpenAI bloqueó los deepfakes y comenzó a implementar medidas de protección para evitar la creación de contenido protegido por derechos de autor.

«OpenAI está profundamente comprometida con la protección de los artistas de la apropiación indebida de su voz y semejanza. Fuimos uno de los primeros partidarios de la Ley NO FAKES cuando se introdujo el año pasado, y siempre respaldaremos los derechos de los artistas intérpretes o ejecutantes», dijo Sam Altman, CEO de OpenAI.

Aunque Sora 2 se lanzó hace unas semanas, su disponibilidad se ha limitado a Estados Unidos y Canadá. El acceso se restringe a esos dos países y solo se pueden generar videos a través de la aplicación para iOS. Este despliegue gradual no solo impide que las cosas se salgan de control, sino que le evita un problema mayor a OpenAI en países donde las leyes de protección de datos y derechos de autor son más severas.

Ver fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *