INTENTÉ chatear el otro día con un algoritmo de inteligencia artificial que procesa lenguaje y construye textos con apariencia de ser textos humanos, precisamente porque ha aprendido leyendo muchísimo de lo que está por las redes. La gracia es que conversas con este modelo lingüistico y contesta de forma eficiente, coherente las más de las veces, aunque en el fondo produce más o menos lo que ve por ahí y sabe que cuela, es decir que en cierto modo está dándonos lo que solemos querer. Le pedí incluso que me escribiera esta columna y reconozco que he estado tentado de colar por aquí el resultado. Pero era muy formal, aunque le pedí que fuera negativa e irónica. No es que gestionen mal el lenguaje (les cuesta, conste, y presentan demasiados sesgos como siempre pasa) sino que son un poco marisabidillas y demasiado poco originales. Nos dan lo evidente, como las imágenes o la música producidas con estos algoritmos, que parecen productos de humanos pero en el fondo no son más que pastiches, en el sentido estricto. El problema, claro, es que ya vivimos en una cultura en la que compramos el pastiche como algo creativo y original: estamos hartos de ver cómo tienen éxito productos poco arriesgados pero que son populares porque están diseñados para ello.

Pero en el fondo el peligro está en otro lado: estos asistentes inteligentes que trabajan con nuestro lenguaje serán sin duda nuestros acompañantes habituales en nada si no lo evitamos, pero su utilidad no será tanto para los usuarios como para los propietarios de los algoritmos que, en cada momento, vayan recabando información y datos de nosotros. La ética detrás de estas inteligencias está escondida y claramente tiene intereses monetarios. Y no podemos dejar que un pastiche interesado nos robe el alma (ni la cartera, aviso).