Con una aplicación gratuita, unas horas de tiempo y un poco de experiencia, es posible hacer videos que muestren a una persona haciendo algo que, en realidad, nunca ha hecho.
Todo parecía normal. El ex presidente de Estados Unidos Barack Obama hablaba frente a una cámara de algún tema político, como solía hacerlo. Su voz y sus gestos sobrios eran los mismos de siempre. Pero era un video falso.
Fue creado por investigadores de la Universidad de Washington, que buscaban entender cómo sincronizar los labios de un personaje con una grabación de la voz de esa misma persona. No lo hacían para darles herramientas a los mentirosos profesionales, sino porque tenían un interés académico genuino en solucionar un reto que hace años inquieta a los expertos en inteligencia artificial.
La dificultad principal, según el artículo académico que publicaron los investigadores, radica en que “los seres humanos somos extremadamente sensibles a los movimientos sutiles en la región de la boca”. Los intentos anteriores, según aseguran, no se veían lo suficientemente naturales como para ser realistas.
Este desarrollo podría facilitar algunas tareas de edición de video, o ayudarles a llevar una vida normal a personas que perdieron el habla o el oído. Además, es un avance importante en el campo de la inteligencia artificial, pues era un problema que se había intentado solucionar hace mucho tiempo.
Pero al poco tiempo comenzaron a aparecer videos pornográficos en los que el rostro de la actriz original había sido cambiado por el de una estrella de cine. Aunque la técnica no es exactamente la misma que usaron los investigadores, el potencial de esta tecnología para la manipulación de información fue evidente: esta clase de videos pronto recibieron el nombre de ‘deep fakes’, lo que traduce algo así como ‘falsedades profundas’.
Por lo pronto, hacer estos videos no es tan sencillo como crear un montaje fotográfico. Se necesita de una persona de que la que ya haya muchas horas de video disponibles. El algoritmo creado por los investigadores en Washington modela los movimientos de la boca del personaje basándose en todo ese material audiovisual, y luego mezcla la boca creada digitalmente con una imagen del resto de su rostro.
Pero la técnica empleada por quienes suplantan los rostros de los videos para adultos es más sencilla. Basta con tomarse cientos de fotos haciendo toda clase de gestos, y conseguir también cientos de imágenes de la persona a la que desea reemplazar –que, en este caso, pueden ser capturas de pantalla del video original.
Eso fue lo que intentó Kevin Rose, un periodista del New York Times que quiso hacer un ‘deep fake’ de sí mismo en una película del actor Ryan Gosling usando la misma técnica. El algoritmo tomará esas fotos para ‘entrenarse’ y modelar el rostro de las dos personas.
No es que cualquiera pueda poner la cara de un político o una figura pública en cualquier video. Pero los recursos para hacerlo ya están ahí afuera.
Ahora bien, no es viable hacerlas en un computador personal cualquiera. Aunque el programa que permite crear estos videos es gratuito y está disponible en internet, sí requiere de un poder de procesamiento superior al de un equipo común para que los resultados no tomen días o semanas. Rose tuvo que alquilar un pequeño servidor en la nube, lo que le permitió hacer los videos en tiempos de entre ocho y diez horas.
Además, no todos los rostros funcionan en todos los videos. Cuando el primer experimento de Rose no salió bien, el periodista le pidió ayuda a un creador experimentado de ‘deep fakes’, quien tenía “una percepción más intuitiva de cuáles videos podrían producir un resultado más limpio, y más experiencia con los ajustes sutiles que hay que hacer al final del proceso”. Al final, el periodista sí pudo suplantar a otros actores y presentadores –menos apuestos que Gosling, eso sí.
Así que, por ahora, no es que cualquiera pueda poner la cara de un político o una figura pública en cualquier video. Pero los recursos para hacerlo ya están ahí afuera, y seguramente los desinformadores organizados ya están haciendo sus experimentos.
Ira Kemelmacher-Shlizerman, una de las investigadoras de la U. de Washington, dice que es importante entender esta técnica para saber cómo atajarla: “Cuando sabes cómo hacer algo, sabes cómo hacerle ingeniería inversa. Por eso, es posible crear métodos para distinguir los videos editados de los reales”, le dijo a la BBC.
El problema es que, hasta ahora, nadie ha descubierto la manera de señalar cuándo un video ha sido publicado sin alteraciones, ni de hacerles ingeniería inversa a los ‘deep fakes’. Sin embargo, sí hay algunos indicios que pueden indicar que un video ha sido manipulado o hace afirmaciones falsas:
Un grupo de estudiantes de octavo a décimo grado del barrio Nelson...
Una nueva campaña busca enseñarle a la comunidad LGBTI a responder...
Una reseña breve de Sapiens, el libro en el que Yuval Noah Harari e...
©Fundación Gabo 2024 - Todos los derechos reservados.