EL impulso por automatizar tareas ha sido una constante en el proceso evolutivo de la humanidad, incrementándose la complejidad de lo automatizado según ha ido evolucionando la ciencia y la técnica. Este impulso ha despertado sentimientos encontrados a lo largo de la historia, tal y como ha quedado registrado en nuestra expresión artística, desde la antigua mitología hasta la más contemporánea ciencia ficción. Así, encontramos lecturas positivas, como la del mito de Prometeo, donde la transmisión a la humanidad de la tecnología se presenta como un obsequio sin parangón; pero también visiones pesimistas, como la que ofrece la novela de Frankenstein.

Automatizar la inteligencia humana forma parte de esa lista de retos anhelados, y hasta hace pocos años su resolución en forma de una inteligencia artificial de propósito general estaba reservada a la ciencia ficción o formaba parte de las predicciones de los tecnólogos más optimistas. Parecía haber un abismo temporal entre las ya muy avanzadas inteligencias narrows o estrechas, orientadas a resolver tareas concretas (como pueden ser hacer una traducción o jugar una partida de go), y una inteligencia artificial general dotada de capacidades para entender y generar el lenguaje, razonar, pensar en abstracto, comprender ideas complejas, planificar, y aprender de la experiencia. En definitiva, una inteligencia con capacidades similares a las de la mente humana.

La percepción de lejanía casi infinita respecto a una inteligencia artificial general ha cambiado significativamente en los últimos años, principalmente, desde la aparición en escena de los grandes modelos de lenguaje generativos, siendo GPT-3 el primero de ellos en obtener eco mediático allá en 2020. Facturado por OpenAI y basado en la arquitectura neuronal Transformer (introducida por Google), el modelo neuronal GPT-3 era capaz de efectuar tareas de comprensión y generación de lenguaje humano. El modelo, de 175 mil millones de parámetros, adquiría capacidades generales del lenguaje aprendiendo únicamente la tarea de predecir la palabra siguiente a una secuencia de ellas, eso sí, sobre una colección de miles de millones de secuencias.

El modelo GPT-3, y similares, fueron posteriormente mejorados mediante la adopción de nuevos enfoques de aprendizaje automático que permitieron perfeccionar sus capacidades, fundamentalmente de comprensión y generación del lenguaje. Mediante el ajuste por instrucciones (instruction finetuning) era posible aprender de forma simultánea multitud de tareas del lenguaje y generalizar ese aprendizaje, y el aprendizaje por refuerzo (reinforcement learning) facilitaba obtener unos resultados más alineados con las preferencias humanas. Son estas dos innovaciones, junto al uso de millones de ejemplos de aprendizaje, las que han dado pie al revolucionario ChatGPT a finales de 2022, y más adelante, a principios de este año, al todavía más revolucionario GPT-4.

La aparición de GPT-4 ha supuesto un revulsivo en la carrera para la consecución de una inteligencia artificial general. Si bien GPT-4 todavía está lejos de ser una inteligencia de propósito general, se puede considerar como una versión prematura de la misma, y su aparición supone un paso significativo para su consecución. Investigadores de Microsoft han realizado una evaluación pormenorizada de las capacidades de GPT-4 y han observado grandes avances en capacidades de manejo del lenguaje natural, lenguajes de programación e imágenes, gestión de ideas complejas, conocimiento en una gran variedad de ámbitos, planificación, razonamiento, resolución de problemas, y explicabilidad. GPT-4, entre otras cosas, es capaz de aprobar con buena nota un examen de biología, resolver un problema matemático complejo, esbozar un plan de comunicación, programar un videojuego a partir de una descripción general del mismo, analizar los estados anímicos de las personas implicadas en una situación descrita, o explicar la gracia incluida en una imagen cómica. Aunque hay que reconocer que no es perfecto, y presenta alucinaciones, puede cometer fallos en operaciones aritméticas sencillas, y el aprendizaje por experiencia y el desempeño para la planificación son muy limitados, entre otros problemas.

En cualquier caso, a pesar de los fallos y grandes limitaciones que pueda presentar, GPT-4 es el modelo que más cerca ha estado de una inteligencia artificial general, y sin duda alguna marca un rumbo sobre el tipo de inteligencias que vamos a ir encontrando en el futuro próximo. Esto no es óbice para que más adelante surjan nuevos enfoques o paradigmas que ofrezcan unas inteligencias artificiales con capacidades superiores.

Las inteligencias artificiales de tipo GPT-4 van a tener un impacto de primer orden en la sociedad, fundamentalmente porque van a permitir automatizar un gran número de tareas y así ofrecer a los humanos mayores capacidades. Su efecto más inmediato se producirá en el ámbito laboral. De acuerdo a un estudio de OpenAI, las inteligencias de este tipo permitirán la automatización significativa de al menos el 9% de los trabajos. Y a diferencia de lo que ocurrió en la revolución industrial, esta automatización se concentrará en trabajos no manuales, es decir, en trabajos que requieren un mayor esfuerzo intelectual.

La adopción ordenada de la inteligencia artificial en el ámbito laboral no va a ser el único de los retos a los que nos enfrentemos. Otros retos de igual o mayor importancia incluyen el uso malicioso de este tipo de inteligencias, la gestión de datos personales de los usuarios, la propiedad intelectual, la estandarización del pensamiento, el soporte de idiomas minoritarios, la amplificación de la brecha digital, y el monopolio tecnológico. En nuestras manos está abordar estos retos con la misma intensidad con la que acometemos los retos técnicos, y de esa manera, alcanzar una inteligencia artificial beneficiosa para la sociedad, como lo fue el regalo de Prometeo, y evitar que se convierta en un deseo envenenado, como el Frankenstein de Mary Shelley.

Orai NLP Teknologiak. Doctor en Ingeniería Informática