el pasado enero se popularizó la etiqueta #10yearchallenge. La campaña perseguía que subiéramos una fotografía nuestra de hace diez años y una actual. Facebook, Twitter, Instagram, etc. se llenaron de imágenes donde se nos podía ver en pleno envejecimiento (10 años a algunas edades se notan). El éxito fue enorme. Pero también la polémica. La mina de información que creamos aparentemente de manera espontánea -o no-, podría ser muy interesante para industrias donde observar nuestra curva de envejecimiento puede reportar pingües beneficios. Por ejemplo, la sanidad o los seguros médicos. Comparar nuestro aspecto en dos ventanas de tiempo es una manera perfecta de entrenar sistemas de reconocimiento facial. No existen pruebas de que esas fotos se hayan usado para ese propósito, pero lo cierto es que Facebook lleva años desarrollando este tipo de soluciones.

Es verdad que existen utilidades que nos aportan también buenas aplicaciones. Por ejemplo, Listerine, que permite detectar cuando alguien sonríe a una persona invidente. Pero son casos aislados. Así, la reflexión debe guiarse por las implicaciones de construir sociedades alrededor de estas tecnologías. Especialmente, por los sesgos que sabemos que tienen. En un estudio reciente se identificaron fallos en el software de IBM y Amazon -dos punteras empresas tecnológicas- en el reconocimiento facial de comunidades afroamericanas. No sé si somos aún lo suficientemente maduros para adoptar estas tecnologías en nuestras sociedades aparentemente modernas.

Y es que automatizar procesos a base de escanear nuestra cara, también puede abrir la caja de los truenos de la privacidad. La comunidad internacional, en reiteradas ocasiones, ha condenado la actuación del gobierno de China en la persecución hacia las minorías musulmanas. Especialmente, hacia los uigures, etnia y cultura próxima a la zona central de Asia. Lo que quizás en occidente conozcamos menos es que el gobierno chino puede pasar a la historia por ser el primero en usar, de manera intencionada, técnicas de inteligencia artificial para identificar y controlar a este colectivo de once millones de personas.

Se trata de una tecnología incorporada a su extensa red de cámaras que permite detectar los movimientos y acciones de personas. Se calcula que para el entrenamiento de estos algoritmos, el gobierno Chino dispone ya de 300.000 caras de personas. Muchos de ellos criminales, que es el eufemismo que utilizan para construir bases de datos de personas. Pueden imaginar lo que es entrenar un algoritmo solo con imágenes de una determinada característica.

Esta red de vigilancia ubicua en el país la he vivido en mis propias carnes: nos identificaron en un aeropuerto por nuestro propio nombre, dentro de un gran colectivo de personas que estábamos esperando a montar a un avión. Y, aunque menos conocido, también se ha sabido que monitoriza el ADN de las etnias que viven en la provincia de Xinjiang, precisamente donde los uigures encuentran su hogar. China sabe que la propiedad del dato trae poder.

Por eso, el problema debe igualmente centrarse en quién tiene esos datos y a quién pertenecen. Es decir, la propiedad intelectual de los datos, un tema poco estudiado. Las empresas son las más beneficiadas por esta implosión de generación de datos. Han contribuido a que los datos sean generados (una estrategia muy inteligente), y encima los han gestionado, mejorado y enriquecido. Por lo tanto, uno podría pensar que la propiedad intelectual del dato es de ellas. ¿Pero esto debe ser así? Esta era digital que altera modelos de negocio un día, y leyes y regulaciones al otro, seguramente cambie esta óptica. Se escudan en que hemos dado nuestro permiso para que esto sea así. ¿Pero cuán conscientes éramos de ello los consumidores y usuarios? ¿Nos explicaron para qué iban a usarse los datos? ¿De qué nos sirve que nos digan que guardarán en las cookies nuestros datos si luego no nos dicen qué harán con ellos? ¿Cuáles son los límites de los datos personales? ¿Dónde está la frontera de lo “privado y público”? Son todo cuestiones difíciles de responder.