EN nuestra rutina diaria no hay momento en el que no sucumbamos a los encantos del atajo. A veces se nos presentan de forma imprevista y otras somos nosotros mismos los que los buscamos. La tentación de la posibilidad de ahorrarnos un largo camino es irresistible. Sin embargo, el riesgo de que el tiro salga por la culata existe, y es lo que muchas veces sucede.

La inteligencia artificial y el camino no deseado: el sesgo y los atajos

El uso de atajos en la toma de decisiones, o en otros procesos cognitivos, no siempre es consciente. Esta herramienta innata, conocida como sesgo cognitivo, nos empuja a pensar de una forma que se desvía del razonamiento lógico. Se han identificado más de un centenar de tipos de sesgos cognitivos, pero quizá sean los sesgos sociales, concretamente los estereotipos, los más conocidos por su implicación en conductas de racismo, xenofobia, misoginia y otras formas de discriminación contra colectivos específicos.

¿Y si basáramos la toma de decisiones, o la ejecución de otros procesos cognitivos, en avanzadas máquinas con habilidades cognitivas? Quizá acudiendo a esos artefactos fríos, calculadores, y en teoría libres de la subjetividad humana, pudiéramos tomar decisiones más cercanas al razonamiento lógico y, por tanto, más justas y libres de estereotipos. Este tipo de artefactos ya existen y nos los proporciona la inteligencia artificial (en adelante, IA). Se trata de máquinas que automatizan tareas que requieren de ciertas habilidades cognitivas y que se están aplicando con éxito para entender y generar el lenguaje humano, simular la visión humana, o realizar diagnósticos médicos, por citar algunos ejemplos. No obstante, a pesar de lo que nuestra intuición podría sugerir, los sistemas de IA también pueden estar aquejados por estereotipos. Son conocidos los casos de sistemas de reconocimiento facial que fallaban con personas negras, sistemas de reconocimiento de fotografías que clasificaban a personas negras como gorilas, sistemas de reconocimiento de voz que funcionaban mejor con voces masculinas, o de sistemas de detección de contenidos tóxicos en redes sociales que asociaban sistemáticamente minorías étnicas con mensajes negativos. ¿Cómo es que los estereotipos se infiltran en los sistemas de IA?

La mayoría de los sistemas de IA actuales se basan en modelos matemáticos cuyos parámetros son ajustados de forma que a partir de una entrada (ejercicio a resolver) se obtenga una salida concreta (ejercicio resuelto). Esos parámetros (miles de millones en los modelos más complejos) se ajustan explorando un gran número de ejemplos resueltos del ejercicio a aprender. Es decir, que el modelo aprende una tarea (o habilidad cognitiva específica) a partir de una muestra amplia de ejemplos (generalmente elaborados y seleccionados por humanos) buscando y generalizando patrones (proceso de aprendizaje) asociados a la ejecución de la tarea. Naturalmente, si la muestra de ejemplos adolece de sesgos sociales, el modelo de IA calibrado sobre ella presentará un comportamiento afectado por los estereotipos. Estos estereotipos incluso pueden ser amplificados, si el algoritmo para la búsqueda y generalización de los patrones (algoritmo de aprendizaje o entrenamiento) tiene dificultad para identificar los patrones, probablemente más sutiles, asociados a los grupos estereotipados. Los estereotipos en los sistemas de IA no solo provienen de las muestras de entrenamiento y el funcionamiento de ciertos algoritmos. Otras fuentes más sutiles por donde se filtran son el sesgo de las personas o equipos que desarrollan el sistema y el sesgo sistémico a nivel de organización que afecta la toma de decisiones durante el ciclo de vida de un sistema de IA.

Para mitigar los estereotipos infiltrados en los sistemas de IA, se han propuesto diferentes técnicas y metodologías que ya se están utilizando tanto en el ámbito académico como comercial. La mayoría de ellas se centran en corregir los sesgos provenientes de la muestra de entrenamiento. Se sugiere, en primer lugar, considerar ciertos criterios durante el proceso de creación de estas muestras de forma que se minimicen potenciales sesgos discriminatorios. En segundo lugar, en el caso de modelos complejos (como por ejemplo los grandes modelos de lenguajes), se propone el reaprendizaje (una suerte de reeducación) a posteriori de los modelos mediante retroalimentación guiada por humanos, ya que la revisión pormenorizada de los millones de ejemplos sobre los que estos grandes modelos son entrenados no resulta viable. Como puede apreciarse, en ambos casos la tarea no es trivial ya que el establecimiento de criterios para definir estereotipos de forma clara trasciende el ámbito técnico.

El uso de la IA en procesos de toma de decisiones y otras tareas cognitivas va a ir en aumento, y afectará a ámbitos como, por ejemplo, el laboral, el educativo, el sanitario o la industria de contenidos. Si apostamos por la IA como una herramienta de desarrollo social, no podemos permitirnos sistemas que en ámbitos sensibles muestren un comportamiento discriminatorio sobre colectivos concretos. Abordar el problema del sesgo (junto a otros retos también diagnosticados) en estos escenarios va a ser una necesidad y no un freno, aunque suponga un esfuerzo suplementario. En la carrera de la IA no debemos apresurarnos por atajos, y es preferible vadear el río, por largo que sea el camino, a atravesarlo por un endeble puente colgante. l

Orai NLP Teknologiak