GEOFFREY Hinton, Premio Turing (considerado como el Nobel de la informática), dijo hace unos meses que “la Inteligencia Artificial va a resolver todo”. Pero, ¿es así? ¿Es realmente inteligente la Inteligencia Artificial?

Cuando hablamos de Inteligencia Artificial (IA en adelante) no debemos olvidar que estamos hablando de programas informáticos (código) diseñado, desarrollado y mantenido por personas para que ese programa actúe y tenga influencia en personas. La IA es, por lo tanto, creada por personas. Es cierto que la IA permite hacer cosas nuevas; nos relacionamos de forma diferente, nos comunicamos de otra forma, etc. Pero en el fondo la preocupación es otra: que un grupo de humanos tenga ventajas y control sobre otro grupo de humanos. Las máquinas no tienen sentimientos, emociones, voluntades, propósitos o autonomía. Sin embargo, los humanos sí la tenemos. Y ahí es donde debe emerger el poder público para controlar lo que se hace y lo que no se hace.

Los ámbitos en los cuales una sociedad puede adquirir inteligencia son muy amplios. Pueden describirse desde una perspectiva del servicio al ciudadano, aumento de las oportunidades laborales, mejora de la seguridad, acceso a la información pública y transparencia, etc. Y, como no, desde una perspectiva más empresarial. Y es que muchos sectores de actividad económica ven oportunidades en esta economía del dato. Y ahí es donde la frase de Hinton que citábamos al comienzo, cobra sentido. ¿Todo es resoluble? Es más, ¿queremos que pueda resolver todo?

Hasta la fecha, las máquinas no han exhibido de manera natural su capacidad para comprender y abstraerse. Esta es la base de la inteligencia humana en realidad. Es lo que nos hace distintos de otras especies. Por lo que actualmente podemos estar hablando más de inteligencia extendida que artificial. Además, y más importante aún, tenemos problemas de explicabilidad y transparencia. Cuando usamos redes neuronales, por ejemplo, que son autónomas (y bastante opacas en cuanto a cómo y qué aprenden), es difícil llegar a entender qué peso le ha dado a cada variable para predecir algo. ¿Nos fiamos de dicha opacidad para estimar el potencial desarrollo de enfermedades? Es decir, aunque no sepamos por qué un algoritmo ha aprendido a priorizar unas variables por encima de otras, ¿nos fiamos de él para empezar a tomar decisiones?

Quizás debamos empezar a suavizar estos discursos tan absolutos, y apostar por modelos más sencillos, que acierten menos, pero al menos sepamos qué y cómo estiman. Este campo de la IA se denomina eXplainable AI (XAI). Viene a sugerir que si queremos una sociedad algorítmica, necesitamos saber qué variables son relevantes, informar sobre los intervalos de confianza y explicar qué ha aprendido. Es decir, entender realmente la magia que se produce, a base de buscar patrones, dentro de los algoritmos.

De otra manera, construiremos cajas oscuras en lo que Frank Pasquale llama sociedades de cajas negras. El libro The Black Box Society: The Secret Algorithms That Control Money and Information, del citado autor, introduce la ética de la tecnología bajo tres perspectivas que debieran ser consideradas cuando construimos algoritmos: (1) Que los resultados a obtener deban satisfacer una serie de reglas, políticas, principios, etc.; (2) Valorar las consecuencias de los resultados que obtienen esos algoritmos; (3) Incorporar de manera explícita e implícita los valores compartidos en la sociedad en la que se introducirán.

Como ven, no es este un ejercicio de regular tecnologías. Sino lo que los humanos podemos llegar a hacer con ella. Todavía ningún país tiene una Ley de Inteligencia Artificial. Sí muchas agendas y planes. El poder de los datos está claro. La ética y la perspectiva social e inclusiva no tanto. En nuestras manos está que el poder que traen estos datos tenga una mirada humanista o no. Y es que la IA es más humana que artificial. Y es más de extender las capacidades humanas que de sustituirlas artificialmente. l