En Sudáfrica existe una entidad financiera denominada Discovery que se describe como un banco del comportamiento. Su actividad se centra en cobrar más o menos intereses en función de la salud del que solicita un préstamo bancario. En el mundo financiero tradicional, los bancos tenían prohibido segmentar a la población sobre los datos demográficos que disponían. Sin embargo, en el mundo digital de la segmentación basada en los lugares que frecuentas y el comportamiento que tienes, ¿qué tipo de dato es éste y cómo se prohíbe? Entender que alguien tiene una vida más saludable por frecuentar más gimnasios que salas de fiesta, resulta relativamente fácil.

Por otro lado, en Alemania, el gobierno está tomando cartas en el asunto de la protección del consumidor digital. Debemos entender esta figura en su amplitud. Un consumidor en la era digital no solo es aquel o aquella que compra algo. También es aquel que usa una herramienta digital gratuita, que genera datos por su actividad, siendo éstos luego vendidos de manera cualificada a compañías interesadas en ellos. Por ello, el gobierno quiere limitar la actividad de operaciones digitales como la del banco Discovery que introducíamos antes. No solo Facebook hace estas cosas: son numerosas las compañías de todos los sectores que están comenzando a jugar en esas líneas difusas que la era digital ha creado.

De Sudáfrica a Alemania. Dos sucesos que aparentemente no guardan relación entre sí pero que nos deben hacer pensar en las desigualdades que un mundo algorítmico puede introducir. Está bien que pongamos el foco en los gigantes de Internet, pero hay vida más allá de ellos. Normalmente las autoridades de la competencia han velado por proteger el consumo y el juego limpio entre empresas. Quizás debiéramos empezar a tomar nota de esta economía de la personalización de productos y servicios. La personalización no se ejerce solo con nombres y apellidos, sino con perfiles obtenidos del comportamiento en entornos digitales.

En este sentido conviene alertar de los riesgos que tienen las tecnologías de reconocimiento facial o del habla. Por resumir un mundo técnicamente complejo, se trata de tecnologías que reconocen imágenes o voz una vez que han sido entrenados con gigantes bases de datos. Es decir, a más datos, más aciertan. Que haya aseguradoras que utilizan reconocimientos faciales para caracterizar a sus asegurados está bien para ellas. Nos conocen mucho mejor, especialmente en clave de nuestra evolución y salud. ¿Recuerdan el #10yearchallenge? Hacer bases de datos de caras es vital para estos algoritmos.

Pero, ¿y qué sucede con las minorías? Es decir, ¿qué sucede cuando hay pocos datos para entrenar a un algoritmo? Del Small Data se habla poco. Pero la discriminación que pueden introducir no es pequeña. Estos peligros deben situarse en un contexto en el que los grandes de Internet cada vez comparten más datos con bancos o supermercados tradicionales. Amazon pudiera ofrecerme productos personalizados basados en mi situación financiera. Spotify sugerirme canciones para animarme frente a la delicada situación crediticia que tengo. Facebook recomendarme personas que pueden asesorarme financieramente.

Un mundo de finanzas algorítmicas en el que, nuevamente, no nos podemos quedar en transiciones digitales a medias. No puede ser que un banco tradicional no pueda segmentar por los datos demográficos que ya dispone, y luego haya un banco que compre los datos de movilidad que generamos en Google Maps, y pueda con ello describir si somos una persona con unos hábitos más o menos saludables.

Como ven, la capacidad que tienen los datos y los algoritmos de generar desigualdades no es pequeña. Hemos hablado en clave económica -conocer hábitos nos puede salir muy caro, dejando de lado nuestros derechos fundamentales-. Pero en clave social también puede salirnos muy caro. Las minorías sociales que frecuentemente son olvidadas en la evolución tecnológica, deben considerarse para no generar más desigualdad. No podemos hacer nuestro día a día -conceder créditos, relacionarnos con otras personas, etc.- con algoritmos entrenados con mayorías. Las minorías digitales también existen.