O que antes era un comentario o un chismorreo que solo tenía eco dentro de círculos muy pequeños, ha encontrado un altavoz y un canal que permite hacerlos llegar y provocar que lo que en realidad es falso, pase a llegar a creerse como real y provocar controversia y situaciones que pueden tener unos efectos secundarios muy adversos.

Los avances en los sistemas de Inteligencia Artificial (AI), junto con la calidad de los audios y vídeos, están haciendo proliferar los denominados deepfake. Seguro que has visto aplicaciones inocentes que permiten crear a partir de un vídeo o de una foto, una nueva versión en la que somos capaces de cantar en inglés con un acento perfecto o ver como nuestras fotografías antiguas cobran vida al mover los ojos o realizar gestos muy realistas.

El problema está cuando estas poderosas aplicaciones son utilizadas con otros fines que están muchas veces más cerca del delito que de la mera diversión. Si todavía no recuerdas haber visto ningún vídeo deepfake, solo tienes que buscar por Google, El Equipo E, una parodia de los políticos que se presentaban en las elecciones de 2019, pero que avisaba claramente que era un vídeo manipulado con el único fin de divertir.

Pero si buscas las palabras Zuckerberg y Spectre, podrás ver un vídeo en el que el fundador de Facebook da las gracias a la organización secreta de las películas de James Bond, por haberle ayudado a crear una red con la que controlar los datos y secretos de millones de personas en todo el mundo. Por supuesto, este vídeo intenta parecer los más real posible, como si fuera una noticia que acaban de dar a nivel mundial todas las televisiones. Hemos pasado de tener que desmentir bulos que no se sostienen sobre ninguna prueba o evidencia a convertirnos en detectives e investigadores de vídeos que tienen una apariencia totalmente real.

Culpar a la Inteligencia Artificial de este problema, como he visto hacer en muchos artículos, y tratar de limitar su uso es tan absurdo como prohibir los vuelos comerciales porque en ocasiones tienen accidentes. Los avances tecnológicos se pueden usar para hacer el mal, pero un profundo cambio en la educación y las formas de actuar creo que es la mejor medicina para detectar este tipo de vídeos que solo buscan crear problemas e inestabilizar las estructuras sociales que han funcionado razonablemente bien hasta ahora.

Microsoft Video Authenticator es una aplicación que podemos utilizar ante cualquier duda que tengamos, aunque cada día la propia Inteligencia Artificial es capaz de mejorar la calidad de estos vídeos. En la actualidad la mejor manera de detectarlos es porque hasta el momento no han conseguido crear un efecto realista en el reflejo de los ojos. Lógicamente todo lo que los algoritmos aprenden para detectar los vídeos falsos es información que a la larga utilizarán los desarrolladores de los deepfake para mejorar la credibilidad.

Creo que la educación y la cultura digital son la manera para luchar contra los bulos y deepfake. Conocer este tipo de técnicas, saber cómo funcionan o incluso aprender a crearlos, puede ayudar a identificar y hacernos dudar de noticias que parecen muy creíbles. Dejar de tratar de ser el primero en reenviar una noticia sin contrastar es algo que se debería aprender desde la escuela.