Todos son famosos ahora, aunque no quieran serlo: cómo Sora de OpenAI convierte rostros reales en realidades falsas

Hay algo fascinante y aterrador a la vez en ver cómo un software recrea la realidad, o al menos algo que se le parece. Sora , la nueva aplicación de vídeo de OpenAI, hace precisamente eso.

Según una investigación reciente sobre el auge viral de la aplicación , los usuarios están enviando clips cortos de ellos mismos a Sora, solo para descubrir más tarde que su imagen está siendo utilizada en videos completamente inventados.

Imagínate abrir tu feed y encontrarte discutiendo en un tribunal o bailando en un club que nunca has visitado: eres tú, pero no eres tú.

La aplicación se popularizó enormemente, convirtiéndose en la última obsesión de Silicon Valley casi de la noche a la mañana. Pero no todo en ella parece innovación digna de celebración.

Algunos de los primeros usuarios, como se describe en una historia de seguimiento sobre la cultura viral del “cameo” de Sora , dijeron que se rieron la primera vez que vieron las versiones de IA de sus amigos.

Entonces lo comprendí: el sistema había recreado sus voces, gestos y rostros hasta el más mínimo detalle, y no había manera de detenerlo antes de que se extendiera.

Lo que hace que esto sea tan desconcertante es lo naturales que parecen los resultados. A diferencia del antiguo software de deepfake, Sora no se limita a sustituir una cara por el cuerpo de otra persona. Genera todo el clip desde cero (movimiento, iluminación e incluso sonido) de forma que engaña no solo a la vista, sino también al instinto.

La compañía dice que ha añadido marcas de agua digitales y “controles de vida” para evitar la suplantación de identidad, pero los grupos de control han descubierto que los filtros son fáciles de eludir.

Han surgido informes de videos violentos o con prejuicios raciales que circulan en línea, lo que llevó a los expertos a advertir que, como lo expresó sin rodeos una investigación reciente , «las barreras de seguridad no son reales».

También se está gestando una controversia más amplia sobre el consentimiento y la propiedad. Si bien OpenAI afirma que los usuarios pueden solicitar la eliminación de contenido, los críticos argumentan que todo el sistema de «exclusión voluntaria» impone la carga a los individuos, no a los creadores del sistema.

Un investigador lo describió como «privacidad al revés»: hay que pedir que no se te incluya. Esa tensión ya está provocando reacciones emotivas en todo el mundo del espectáculo.

La hija de Robin Williams, Zelda Williams, condenó recientemente las recreaciones de inteligencia artificial de la voz de su difunto padre, calificándolas de «violación de su humanidad».

Su declaración siguió a una ola de indignación por parte de actores y creadores, resaltada en un informe sobre la reacción a los videos sintéticos de celebridades .

Mientras tanto, la comunidad tecnológica parece dividida entre la admiración y la alarma. El capitalista de riesgo Vinod Khosla defendió recientemente a Sora, argumentando que «los críticos tienen una visión estrecha» y que estas herramientas generativas democratizarán la creatividad.

En un comentario que analiza la respuesta de Khosla a la reacción , desestimó la controversia como una resistencia al progreso, aunque no abordó directamente la pesadilla ética de las identidades sintéticas.

Desde donde estoy sentado, parece como si estuviéramos parados al borde de algo enorme e inestable.

Es realmente emocionante ver cómo una IA logra el realismo de un rostro humano en movimiento, pero también existe esa inquietante idea de que puedas ver tu propio rostro haciendo algo que nunca dijiste o hiciste.

Es el tipo de innovación que te hace mirar dos veces cada video en línea, preguntándote si la persona en pantalla alguna vez existió.

Alma Gonzales
Estaremos encantados de escuchar lo que piensas

      Deje una respuesta

      yopuedoprogramar
      Logo