SI buscáis en Youtube obama deep fake y veis el primer vídeo que os lista, seguramente al terminar no salgáis de vuestro asombro. Sí, se trata de un vídeo en el que Obama afirma que Trump es “un completo idiota”. Pudierais pensar que se trata de alguna broma. Pero sería raro para una persona como Barack Obama, tan respetuoso con las formas. También sería muy singular a nivel institucional; es cierto que la política norteamericana nos ha sorprendido siempre, pero no hasta el límite de que un expresidente le insulte a otro de esa manera.

No os alarméis, es un vídeo falso. Es un montaje realizado con técnicas de inteligencia artificial que permiten crear noticias falsas en formato audiovisual. Es lo que se ha venido a bautizar como deepfakes, que podríamos traducir como “mentiras profundas”. Se trata de algoritmos realmente complejos que aprenden las características de una fuente de datos determinada -imágenes de Obama en este caso-, para luego generar ejemplos de esos datos con dichas características desde cero. Es decir, si pongo a un ordenador a aprender imágenes de Obama hablando en público, un algoritmo será luego capaz de generar expresiones, gestos faciales, rasgos, etc. para así poder simular un discurso o una comunicación totalmente singular.

Meses atrás se conocía también un vídeo creado con el software FakeApp en el que se habían sustituido las caras de actrices de películas pornográficas con mujeres famosas de la industria de Hollywood. Los vídeos se viralizaron en Internet muy rápidamente, y la crisis de reputación que tuvieran algunas de ellas, fue considerable. Tiempo después, supimos que eran falsos, pese a que cualquiera que observe el vídeo de manera superficial, lo percibe como naturalmente real. Si se visualizan con cierto detenimiento, se perciben movimientos de cuerpo y entonaciones peculiares. Pero claro, exigir en la era digital una lectura o visionado pausado y detallado, es mucho exigir.

Otro equipo de expertos de la Universidad de Princeton y de la de Stanford también consiguieron desarrollar un método para editar un vídeo de personas que estaban hablando a una cámara. Sustituyeron algunas palabras que decían, sin tener que generar un vídeo desde cero. El resultado es mucho más real que los anteriores, tanto a nivel de imagen como de audio.

Ante esta complejidad, se pueden imaginar que el retoque fotográfico hecho manualmente en Photoshop va a quedar como una técnica rudimentaria. Es verdad que también están naciendo soluciones igualmente elaboradas. InVID es una herramienta que identifica las imágenes originales que hayan eventualmente sido utilizadas para generar un vídeo falso. Pero claro, explicarle a la sociedad que debe tener una herramienta así para que no le puedan manipular sus pensamientos, creo que es mucho exigir. Además, a estas alturas también sabemos que en Internet triunfa más un vídeo de Obama insultando, que un titular explicando cómo evitar que te mientan. Esta es la parábola de la era digital.

Sin embargo, estamos hablando de un tema demasiado serio como para simplemente lamentarnos. Tal es así que las propias empresas que han construido estas herramientas de manipulación, están poniéndose manos a la obra. Adobe, la empresa dueña de Photoshop, ha creado junto a investigadores de la Universidad de Berkeley un área de análisis forense de imágenes manipuladas usando su herramienta Face-Aware Liquify. Una herramienta de inteligencia artificial para detectar una trampa creada por otra solución de inteligencia artificial.

Vivimos tiempos en los que no deberíamos dar por hecho nada y cuestionar lo que consumimos. En manos equivocadas, estos métodos de generación de vídeos falsos pueden ser una fuente inagotable de desinformación, contenidos audiovisuales manipulados y vídeos falsos. Naturalmente la ética no está viviendo su edad de oro, porque creo que nos vemos absolutamente desbordados por las complejas capacidades tecnológicas.

La abundancia digital ha traído precisamente lo contrario a lo que imaginábamos: superficialidad. De ahí que insista tanto en mi nostalgia hacia la escasez y la pausa.