El catedrático de la Universidad Politécnica de Cataluña (UPC) e investigador del Barcelona Supercomputing Center Jordi Torres considera que a la inteligencia artificial se le atribuyen más capacidades de las que tiene actualmente y que “no es un demonio”, pues todo depende “de la mano que hay detrás”. Divulgador de la supercomputación, Torres ha publicado un nuevo libro con un título que evoca una vocación pedagógica hacia aquellos que mucho han oído hablar de la IA pero poco saben de ella: La inteligencia artificial explicada a los humanos (Plataforma Editorial).

En una entrevista con Efe, Torres resalta que él mismo y el Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS) pensaron en lanzar este libro para explicar de una forma comprensible para todos los públicos qué es la IA, qué puede hacer y qué no puede hacer. “Todo el mundo habla como si fuera un demonio y la IA no es ni buena ni mala, depende de en qué manos está”, señala el autor. Ya hoy en día, la IA es capaz de generar falsas noticias, suplantar identidades o modificar fotografías de personas para que aparezcan desnudas, pero también puede afinar diagnósticos en técnicas de imagen, simular cómo interactúa una proteína con un medicamento o predecir escenarios de la crisis climática.

Al fin y al cabo, la IA “no es más que la evolución de la informática y de la digitalización que hace decenios que se está produciendo, pues todo es un continuo” en el que, de diferentes maneras, se han perpetrado los malos y buenos usos de las tecnologías, reflexiona. Si todo es una evolución de lo que ya conocemos, ¿por qué generan tanto temor social algunas aplicaciones de la IA?

“Tenemos el foco mal puesto, la gente tiene una visión de la inteligencia artificial de las películas, de escenas distópicas en la que las máquinas tienen el control, y esto, ahora, es imposible”, asegura Torres.

Si bien se han logrado avances muy importantes, existe una idea social de que la IA “tiene unas capacidades que no tiene”, pues “la IA no piensa, siempre hay un humano detrás que aprieta el botón”, añade. Para que esto sí ocurriera en un futuro, “serían necesarios unos cuantos Einstens”, bromea Torres, que no esconde que ese objetivo es “el Santo Grial de los investigadores”.

Sin embargo, Torres no ve margen para aumentar mucho más las capacidades de la IA a corto plazo. Un ejemplo es el ChatGTP, que ya tiene varias versiones pero al final no deja de ser un producto elaborado con “fuerza bruta”, es decir, con “muchos datos procesados con grandes algoritmos por supercomputadores con unas potencias enormes, que permiten hacer miles de millones de operaciones”, pero todo tiene límites.

En estos momentos, según Torres, ya se han consumido gran parte de los datos que están en Internet y “los nuevos ya deben ser generadas por humanos, y esto lleva tiempo”.

Otro ejemplo que el divulgador recoge en el libro es el de los coches sin conductor, que no acaba de llegar: “Aunque en la codificación y el entrenamiento de las redes neuronales se tienen en cuenta un gran número de variables, siempre hay imprevistos que hacen fallar al sistema porque este carece de la capacidad de improvisación y del sentido común del ser humano”, sostiene el autor.

Para Torres, es importante regular pero también concienciar, un binomio que puede asegurar el buen uso de la IA. “Es como el armamento, que está regulado pero luego puede aparecer un grupo Wagner y hace un mal uso; por eso es necesaria también la concienciación”, argumenta. Esta concienciación no solo debe ser del conjunto de la sociedad, habida cuenta de que las herramientas de IA cada vez están más al alcance de todo el mundo, sino también entre los que trabajan en informática, pues por ahora no existe un código deontológico de informáticos, como sí ocurre en otras profesiones”.