Historia alternativa del alunizaje, cortesía de Deepfakes


«El destino ha ordenado», dijo el presidente Nixon, mirando solemnemente a la enorme lente de la cámara de televisión desde su asiento en la Oficina Oval de la Casa Blanca, «que los hombres que fueron a la luna a explorar en paz permanecerán en la luna para descansar en paz». . Estos hombres valientes, Neil Armstrong y Edwin Aldrin, saben que no hay esperanza para su recuperación. Pero también saben que hay esperanza para la humanidad en su sacrificio «.

Tales son las palabras de lo que los historiadores a menudo se refieren como el «discurso de contingencia»: la dirección de respaldo escrita antes del alunizaje de 1969 en caso de que la misión del Apolo 11 saliera terriblemente mal. Escrito por el escritor de discursos de Nixon, William Safire, quien falleció en 2009, el 18 de julio de 1969, el discurso de contingencia fue cómo el 37 ° presidente de Estados Unidos habría abordado públicamente una tragedia nacional (y, realmente, internacional). Señala que la humanidad siempre debe recordar que «hay algún rincón de otro mundo que es para siempre la humanidad».

Por supuesto, en realidad, Nixon nunca tuvo que pronunciar el discurso. La misión Apolo 11 fue, bueno, la misión Apolo 11. Todos sabemos cómo fue, a menos que seas una de las personas convencidas de que fue falsificada y que las imágenes de aterrizaje reales fueron dirigidas en un estudio por Stanley Kubrick.

Pero los investigadores del Centro de Virtualidad Avanzada del MIT están ofreciendo una visión de una versión alternativa de la historia en la que este discurso estaba dado. Y es bastante convincente.

Historias alternas

Lanzado el lunes, el proyecto «In Event of Moon Disaster» del MIT arroja luz sobre el poder del video y el audio falsos al documentar el video auténtico de la transmisión real de 1969 de Nixon sobre el exitoso aterrizaje en la luna para mostrarlo leyendo el discurso de contingencia. Está acompañado por un sitio web que proporciona mucha documentación alternativa sobre la historia paralela que nunca existió, junto con un documental de 30 minutos titulado «To Make a Deepfake».

Para aquellos que no están familiarizados con el término, las falsificaciones profundas utilizan la inteligencia artificial para editar video o audio para que suene como si una persona estuviera diciendo o haciendo cosas que nunca ha hecho. Hemos cubierto la escasez de falsificaciones profundas convincentes en Digital Trends, ya sea el mensaje ominoso de 2019 en el que el CEO de Facebook, Mark Zuckerberg, parecía regodearse sobre «los datos robados de millones de personas» o el divertido video, creado especialmente para nosotros, que representa a Ryan Reynolds como Willy Wonka (que fue retuiteado por el Consorcio inactivo actor mismo).

Sin embargo, pocos deepfakes caseros han sido tan convincentes como la creación del MIT. Crearlo tomó varios meses, un actor contratado, una sesión de estudio y un equipo internacional de investigadores.

«Los medios sintéticos no son fáciles de hacer», dijo a Digital Trends la codirectora Francesca Panetta, directora creativa de XR en el Centro de Virtualidad Avanzada. «No lo hicimos [just] haz un cambio rápido de cara como la mayoría de las falsificaciones profundas. Queríamos hacer las piezas de medios sintéticos más convincentes que pudimos y decidimos hacer falsificaciones visuales y de audio «.

Creando la ilusión

Para crear el lado visual del proyecto, MIT se asoció con una compañía israelí llamada Canny AI, que lleva a cabo lo que llama reemplazo de diálogo de video. Este proceso, que algún día podría reemplazar los subtítulos en las películas, permite a los creadores de video usar la «magia AI» para modificar el video fuente existente que muestra a una persona hablando para que sus labios y expresiones faciales asociadas coincidan con las palabras dobladas. Eso podría ser diálogo en otro idioma. También podría significar que los creadores de películas pueden cambiar libremente las líneas de un actor una vez finalizada la filmación, sin tener que volver a filmar la escena en cuestión.

«Filmamos a nuestro actor pronunciando el discurso que queríamos que el presidente Nixon pronunciara, luego Canny AI grabó nuestro video de ese actor y usamos sus capacidades de inteligencia artificial para analizarlo y decir: ‘Oh, la boca de esta persona se mueve de una manera particular'». La codirectora Halsey Burgund, miembro del Laboratorio Documental Abierto del MIT, dijo a Digital Trends. «Luego puede ver el otro video de la boca del presidente Nixon moviéndose de una manera diferente, y reemplazar lo suficiente, lo menos posible, para que parezca que el presidente Nixon está diciendo esas palabras».

La parte de audio deepfake fue realizada por una compañía del Reino Unido llamada Respeecher. Respeecher se especializa en la conversión de voz a voz. En esencia, eso significa hacer que una voz suene como otra. Tal tecnología, señala Respeecher en su sitio web, podría usarse para crear audiolibros leídos con la voz de una persona famosa (piense en autobiografías de celebridades) o con fines de entretenimiento como aplicaciones de karaoke que le permiten cantar con la voz del cantante original de una canción.

Para crear el audio falso, el equipo tuvo que crear cientos de clips con un actor que decía líneas previamente grabadas por el presidente Nixon. Con el tiempo, pudo aprender a convertir la entrada (la voz del actor) en la salida deseada (la de Nixon).

«La razón por la que utilizamos esta tecnología en lugar de una tecnología de texto a voz es que al ir de voz a voz, puede preservar los aspectos performativos de la entrada», dijo Burgund. “Podemos decirle a nuestro actor, ‘hablar un poco más lento’ o ‘enfatizar esta palabra’, y realmente dirigirlo a pronunciar el discurso de la manera que quisiéramos. Toda esa dirección pasaría a [the finished] Discurso del presidente Nixon.

El futuro de los deepfakes

El proyecto In Event of Moon Disaster de MIT es una visión fascinante, aunque inquietante, del futuro de los deepfakes. El sitio web en el que está alojado constantemente empuja al usuario a separar el hecho de la ficción en lo que están viendo y oyendo. Combinado con los montículos de historia alternativa de «noticias falsas» que los creadores del proyecto han soñado, esto no siempre es tan fácil como parece. Los resultados son a la vez infinitamente emocionantes cuando se trata de nuevas posibilidades de narración de historias y muy ligeramente aterrador.

Entonces, ¿qué rama fascinante de la historia, que nunca fue, planea el equipo explorar a continuación? «Hemos pensado en esto», dijo Panetta. “No estoy seguro de que nos convertiremos en la casa de producción de historias alternativas. Estamos interesados ​​en avanzar siempre en términos de narración de historias ”.

Sin embargo, dijo que una de las cosas en los últimos meses, incluidas, en particular, las protestas contra el racismo de Black Lives Matter, la ha hecho pensar en quién tiene que narrar nuestra historia. «Se ha hablado mucho sobre la reconsideración de la narrativa», dijo Panetta. «Los medios sintéticos y la inteligencia artificial se pueden utilizar para corregir las narrativas [the history we have been told]. «

¿Quién será el próximo en usar deepfakes para explorar la historia alternativa? ¿Qué historia podrían usar para abordar? Todas estas son preguntas que tendremos que esperar para averiguarlo. Sin embargo, según la evidencia de este proyecto, en este momento parece que el pasado es tan inestable e impredecible como el futuro.

Qué tiempo para estar vivo. Un pequeño paso, de hecho.

Recomendaciones de los editores




Salir de la versión móvil