
Todo empezó de forma bastante inocente: gente experimentando con el nuevo modelo de vídeo de OpenAI, Sora , para crear clips cinematográficos cortos a partir de indicaciones de texto.
Pero pronto empezó a circular algo inquietante: vídeos ultrarrealistas de figuras públicas fallecidas hacía mucho tiempo que parecían hablar, actuar e incluso suplicar frente a la cámara.
No fue nostalgia, fue resurrección. Expertos legales advierten ahora que Sora podría haber abierto la caja de Pandora de las vidas digitales después de la muerte, como se ve en el informe sobre cómo los videos de IA de los muertos han despertado la alarma entre especialistas en ética y familias .
A los pocos días de su lanzamiento, clips de Martin Luther King Jr., Amy Winehouse y Robin Williams comenzaron a ser tendencia en las redes sociales.
Un video viral incluso mostró a Stephen Hawking recibiendo una “ bofetada de poder ” en una simulación de lucha libre, algo que, según se informa, su familia encontró profundamente angustiante.
La frontera entre tributo y explotación se desdibujó y, para muchos, esa línea se cruzó en el momento en que el dolor se convirtió en entretenimiento.
Vi algunos de esos clips y, sinceramente, es desgarrador ver caras conocidas moverse y hablar de formas que nunca antes habían hecho. Es como un robo de memoria envuelto en píxeles.
Ante la presión pública, OpenAI ha comenzado a retractarse. La compañía suspendió discretamente todos los vídeos con Martin Luther King Jr. tras la queja de sus herederos e introdujo un sistema para que las familias puedan solicitar la eliminación de cualquier imagen.
Ese enfoque de «exclusión voluntaria», descrito en la cobertura sobre cómo OpenAI suspendió los videos de Sora y permitió que los patrimonios bloquearan futuras apariciones , todavía deja gran parte de la carga sobre los familiares de las víctimas.
Imagina tener que poner una multa solo para impedir que desconocidos animen a tu difunto padre. Es desesperante.
El problema no es solo moral, sino también legal. En Estados Unidos, los derechos de imagen de los difuntos varían enormemente de un estado a otro.
Algunas jurisdicciones los tratan como propiedad, otras apenas los reconocen. Esto significa que una falsificación profunda de un actor fallecido podría ser ilegal en California, pero perfectamente aceptable en Texas.
Y como los clips de Sora se difunden globalmente en cuestión de minutos, la ley parece estar persiguiendo a un fantasma.
Un analista tecnológico lo expresó sin rodeos: “Hemos construido máquinas del tiempo para Internet, pero nadie sabe quién es el dueño de los fantasmas”.
Para echar más leña al fuego, los creadores ahora utilizan Sora para todo, desde contenido satírico hasta escenarios políticos hipotéticos.
Algunos usuarios incluso hicieron videos parodiando al CEO de OpenAI, mostrándolo «atrapado robando GPU» en una transmisión de cámara de seguridad generada por IA, un clip que ha estado circulando mucho desde que surgieron informes sobre imágenes falsas de Sora que mostraban a Sam Altman grabado .
Lo que comenzó como una parodia inofensiva ahora resalta cuán poderosas e incontrolables se han vuelto estas herramientas.
¿La ironía? Mientras OpenAI se esfuerza por establecer directrices, las empresas tecnológicas ya están enseñando a la gente a detectar falsificaciones, señalando aspectos como la iluminación desfasada o sutiles destellos en los ojos.
Pero los deepfakes evolucionan más rápido que los métodos de detección. Incluso los expertos citados en guías sobre cómo detectar una falsificación de Sora, mientras tú aún puedes admitir, la línea entre el video real y el generado se difumina cada semana.
No es que no lo viéramos venir. Hace unos meses, cuando OpenAI presentó la beta de Sora, algunos periodistas bromearon diciendo que pronto la gente podría hacer deepfakes a sus amigos por diversión.
Y, efectivamente, la aplicación complementaria de Sora (mencionada en una cobertura temprana sobre cómo el modelo de IA permite a los usuarios hacerse deepfakes entre sí a través de videos sociales cortos ) ya se ha convertido en un patio de juegos tanto para la creatividad como para el caos.
Desde un punto de vista personal, entiendo la fascinación. Ver a un fantasma digital hablar de nuevo despierta algo primario: una mezcla de curiosidad y anhelo.
Pero cuando veo a Winehouse digital llorando o a King dando un discurso escrito por un algoritmo, es difícil no sentir que estamos pisoteando tumbas con código.
La tecnología es extraordinaria, claro, pero quizá ese sea el problema: es demasiado poderosa, demasiado fácil, demasiado pronto.
Y así volvemos a la pregunta incómoda: ¿quién puede conservar un rostro cuando el cuerpo ya no está?
Si Sora nos enseña algo, es que los muertos tal vez nunca vuelvan a descansar del todo, no cuando los algoritmos pueden mantenerlos hablando para siempre.