nOS movemos entre una fascinación que roza el enamoramiento y un recelo que deriva en absoluto canguelo cada vez que nos paramos a pensar en las cosas que es capaz de hacer la inteligencia artificial por nosotros y, sobre todo, sin nosotros. Adelanto que el que suscribe es más del sector receloso, que sin llegar al ludismo que se dedicaba a destruir las nuevas máquinas de la revolución industrial en el siglo XIX, desconfío mucho de la desidia con la que nos dejamos hacer por una dinámica tecnológica casi mágica que se acerca al límite de tomar decisiones sin intervención de su creador, que es lo que la especie humana le hizo a dios y ChatGPT nos está haciendo a nosotros.

Siendo sinceros, no es que me preocupe demasiado que la inteligencia artificial tenga un libre albedrío basado en la pura lógica sino que se dé cuenta de hasta qué punto somos prescindibles, cuando no perniciosos, y actúe en consecuencia. Me explican que no me preocupe, que sus pautas de aprendizaje se basan en la información de la que dispone, y esta emana directamente de las que facilitamos los propios humanos en nuestras conversaciones, reflexiones y contenidos que almacenamos o distribuimos en red y en la nube. Y me acongojo más.

No hay principios éticos en red. Los experimentos con IA basados en la información que los humanos compartimos han derivado en la construcción de estereotipos racistas, sexistas y profundamente egoístas en sus postulados. Así, nos arriesgamos a que los más populistas, los más exitosos en su capacidad de agitar miedos y vicios o el marketing más hedonista sean la pauta más repetida a la hora de establecer los principios de los algoritmos que ya inducen nuestras decisiones. El problema no es que piensen por nosotros, que ya lo hacen, sino que lo hagan sin los filtros con los que contenemos lo peor de nuestra naturaleza.