Reflejos coloniales de la Inteligencia Artificial

27.09.2020 | 10:45
Reflejos coloniales de la Inteligencia Artificial

Hace unas semanas, el movimiento estudiantil Fuck the algorithm tumbaba un caso que hubiera introducido una nueva categoría de desigualdad: un algoritmo discriminando las calificaciones de estudiantes. Por desgracia, no fue un hecho aislado. Son numerosos los ejemplos en los que los sesgos de la inteligencia artificial han sido objeto de conversación y debate recientemente. Se han conocido comportamientos discriminatorios a nivel racial o de género en contextos tan diversos como la apertura de cuentas bancarias o la elección de candidatos para puestos de trabajo. El famoso escándalo de Cambridge Analytica tiene una historia poco hablada: sus algoritmos de microsegmentación fueron testados originalmente en procesos electorales de Nigeria en 2015 y Kenia en 2017. Se ha sabido posteriormente que tuvieron un papel importante en el desequilibrio de poder tan habitual en África. Ciertamente, uno ya no sabe cómo calificar estos actos. ¿Colonización algorítmica quizás?

Lo que más me sorprende es que la sociedad se lleve las manos a la cabeza ahora con ello. Los sistemas de Machine Learning (aprendizaje de las máquinas) tienen un problema evidente: son imperfectos. Y como todo lo no perfecto, a veces, se equivocan. Quizás es un problema de gestión de expectativas de los humanos o que no se nos da nada bien trabajar con resultados imperfectos. Nuestro cerebro, sabemos, quiere concreción y claridad. Pero en estos sistemas, se trabaja con probabilidades, un concepto que lleva inexorablemente ligado el posible fallo en la interpretación de la realidad.

Por todo ello, como dice el profesor Shakir Mohamed, la inteligencia artificial está lejos de ser global. Está contextualizada a unas zonas geográficas y unas personas concretas. Y así se ha venido desarrollando desde hace décadas. En este sentido, otra historia también poco conocida es la declaración de Osaka sobre el flujo de datos mundial. El 28 y 29 de junio de 2019, los líderes mundiales del G-20, decidieron abordar en una de sus habituales cumbres los grandes retos económicos mundiales. Comercio mundial, clima, energía y transformación digital, estuvieron en el foco de su atención. Una de las grandes líneas de trabajo versó sobre cómo el uso eficaz de los datos puede ser un factor de crecimiento económico, desarrollo y bienestar social. Para ello se trató, entre otras cosas, cómo los flujos de datos deben gobernarse. Bien sabemos que los datos, y el mundo digital, no conocen fronteras. India se negó a firmarlo, y muy poco se ha dicho del por qué. Cuesta incluso encontrar artículos fuera de los medios Indios a este respecto. El motivo para negarse a firmarlo fue que quería solicitar a los proveedores y generadores de datos que el almacenamiento de los mismos no saliera de la India. En definitiva, reclamaba su soberanía de datos (sobre la que tanto he hablado últimamente). No hace falta decir que India al final es un caso –de muchísimo peso, eso sí–, entre los muchos que pueden tener esto en la cabeza. El problema es que en un acuerdo para hablar del flujo de los datos (ese tan cacareado "nuevo petróleo"), no estaban representados los países en vías de desarrollo. Es lógico y evidente afirmar que esto no está bien balanceado y que la discriminación, como veis, lejos de ser arreglada está escribiendo textos como éste. Incluso iniciativas tan loables como "Inteligencia Artificial para los Objetivos de Desarrollo Sostenible" arrojan alguna duda de enfoque. Su paternalismo y asistencialismo, creo, ayudan bien poco para la inclusión de países que debieran tener una voz cualificada en ello.

Una de las primeras cuestiones que nos enseñan en informática es que los sistemas deben ser diseñados sensibles al contexto de uso. Y que deben ser inclusivos y hechos a prueba de fallos, considerando usos marginales de los sistemas. No creo que sea una afirmación extraordinaria decir que ahora mismo, este mundo de la inteligencia artificial tiene una distribución de poder claramente desbalanceada. Y que está en manos de todos y todas solventar estos problemas. Pero, claro, eso requiere liderazgo y emprendimiento político, no solo tecnológico.

El mundo de la inteligencia artificial tiene una distribución de poder claramente desbalanceada. Está en manos de todos y todas solventar estos problemas