Quién decide mi futuro

> Manuel MIramontes

LA VOZ DE LA ESCUELA

Las bases de datos que almacenan petabytes constituyen la base del «big data»
Las bases de datos que almacenan petabytes constituyen la base del «big data» US Department of Energy

Los algoritmos matemáticos toman decisiones vitales para las personas basadas en la huella digital que los usuarios van dejando en Internet

06 nov 2019 . Actualizado a las 05:00 h.

Tu grupo musical favorito acaba de lanzar una promoción: regalan entradas para su próximo concierto para las personas que publiquen los posts más originales en redes sociales. «Esto es para mí», piensas: tienes que ganar esas entradas. Tus posts serán divertidos, atrevidos, comprometidos... lo que sea con tal de conseguirlas.

Y ganaste las entradas. No sabes muy bien cuáles fueron los criterios de selección. Imaginas a un grupo de personas revisando los posts y eligiendo los mejores. Incluso supones que la selección final la hacen los propios miembros del grupo musical. Por eso recibes un mensaje personalizado: «Te hemos elegido para que nos acompañes».

«Bueno -piensas-, a lo mejor parte de la selección la hizo un sistema informático. Pero ¿qué puede entender un ordenador de mi mensaje en Facebook? ¿Por qué eligió el mío y no otro? ¿Qué criterios usó? No importa. Solo es un concurso, y además acabo de ganar. ¡Seguro que era un computador con inteligencia artificial de la buena!».

Las máquinas toman muchas más decisiones que nos afectan de las que imaginamos. Estamos acostumbrados a anuncios personalizados cuando navegamos. Son distintos para cada usuario, aunque visitemos la misma página. Dependen más de nuestras búsquedas anteriores que de lo que estamos visitando en este momento.

En nuestro día a día dejamos muchas pistas de nuestros gustos, intereses, hábitos de consumo... Búsquedas en los navegadores, sitios en los que nos damos de alta, tarjetas de fidelidad, contratos de servicios, tarjetas de pago, bancos, la matrícula, prendas que me pruebo o que compro, noticias que leo, a quién sigo en Twitter, cuánta electricidad gasto y a qué horas, a qué lugares acudo, a qué eventos, qué compro en el súper... ¿Qué imagen podría hacerse alguien de mí si pudiera cruzar todos esos datos?

«BIG DATA»

La información que generamos día a día es tanta que las bases de datos convencionales no valen para almacenarla y manejarla. De ahí surge el concepto de big data: bases de datos capaces de almacenar un tráfico de datos inmenso y de manejarlos con velocidad suficiente. Estamos hablando de sistemas que pueden almacenar petabytes: millones de terabytes.

Los ordenadores son capaces de manejar con soltura mucha más información que los humanos. Para extraer conclusiones es necesario saber qué buscar y cómo relacionar los datos. La próxima campaña de cualquier multinacional va a depender de alguna combinación de todos los rastros que dejamos consciente o inconscientemente cada día. El resultado: ofertas y servicios personalizados para mis gustos y hábitos.

La inteligencia artificial explora mecanismos para que las máquinas, de alguna manera, aprendan. El entrenamiento inicial de un sistema de reconocimiento facial, por ejemplo, pasa por una fase en la que se le muestra un grupo de imágenes que deben ser aceptadas (por ejemplo, caras de personas) y luego otro conjunto de imágenes que deben ser rechazadas (por ejemplo, muñecos o animales). Luego se muestran otras imágenes distintas y la máquina debe ser capaz de clasificarlas. Al principio hay que corregirla, pero poco a poco tendrá más aciertos. No sabemos cuáles son los motivos exactos por los que acepta o rechaza una imagen determinada. Tampoco los programadores lo saben. Son el resultado de aplicar las reglas iniciales y del entrenamiento.

ALGORITMOS

De una forma u otra, en la respuesta de la máquina intervienen algoritmos matemáticos. Y los algoritmos deciden cada vez más aspectos de nuestras vidas. Dentro de unos años vas a presentarte a una oferta de trabajo o vas a solicitar una beca o un préstamo o algún tipo de subsidio. ¿Tendrán en cuenta aquel tuit que subiste para el concurso?, ¿o que aún sigues a aquel grupo en Facebook?... Los datos están recogidos en algún sitio y posiblemente ya nunca se van a borrar. Actualmente algunas empresas ya recurren a sistemas automáticos basados en algoritmos para seleccionar, valorar o incluso despedir a sus trabajadores.

Y lo que es peor, también los usan para valorar riesgos, o sea, para predecir el futuro: ¿cuál es el riesgo de que contraigas determinada enfermedad?, ¿de que no devuelvas el préstamo?, ¿de que cometas fraude con el subsidio?, ¿de que no acabes los estudios?...

Piensas: «Si estimo que la decisión es injusta siempre puedo reclamar y que me expliquen los criterios de la decisión. No en vano el Reglamento Global de Protección de Datos de la UE garantiza el derecho a la explicación sobre las decisiones que me afectan».

Sí, un humano puede decirte qué criterios aplicó, pero un algoritmo no. Y, recuerda, la persona que lo programó tampoco. Solo puede decirte las reglas que le enseñó a la máquina, pero no los motivos que la llevaron a excluirte a ti.

SESGOS

El aprendizaje de las máquinas puede, y suele, tener sesgos, igual que las personas adquieren prejuicios. A veces porque las reglas iniciales, el aprendizaje o la propia tecnología son, consciente o inconscientemente, sesgadas. Hay estudios que demuestran que muchos sistemas actuales reconocen peor los rasgos faciales de las personas negras o que entienden peor las voces femeninas.

Otro ejemplo: los sistemas de identificación de delincuentes se entrenan con imágenes de convictos conocidos que habitualmente responden a patrones demográficos determinados. El resultado es que el sistema tratará a esos grupos demográficos de forma distinta, posiblemente sobrestimando la probabilidad de que una persona de esos grupos vaya a cometer un delito. Sus previsiones pueden ser meras profecías autocumplidas.

Algunos especialistas proponen desarrollar técnicas para auditar los algoritmos, de manera que se compruebe si tienen algún tipo de sesgo. Sin embargo, otros piensan que el problema es más profundo: la discriminación y la falta de objetividad son cuestiones éticas. Las habrá con algoritmos o sin ellos.

Mis tuits

Nuestro estilo al comunicarnos dice mucho de nosotros. Esta es una actividad para hacer entre varios amigos. Cada uno debe seleccionar unos cuantos tuits que no contengan nombres ni información personal. Diez bastan. Cada uno debe imprimir en una hoja los suyos en secreto y ponerlos boca abajo en la mesa.

  • El juego consiste en coger una hoja con tuits e intentar adivinar quién los escribió. ¿En qué te fijas? En el uso de emoticonos, mayúsculas, frases que se repiten...

Tu huella digital

Día tras día dejamos muchos rastros digitales. ¿Serías capaz de hacer una lista de todas tus actividades que pueden dejar huella? Por ejemplo: webs en las que estás registrado, aplicaciones, servicios de Google, Amazon o Apple, tarjetas de pago o de fidelización, promociones…

Jugando con Google

Los anuncios que aparecen al navegar tienen que ver con búsquedas anteriores. Esto nos permite llevar a cabo un experimento científico.

  • Empieza por hacer una única búsqueda de un tema que no te interesa. Pulsa en dos o tres enlaces y cierra la página. ¿Recibes anuncios sobre ese tema en los días siguientes? ¿Cuánto tardan en aparecer? ¿Y en cesar?
  • Luego puedes comprobar si el resultado es distinto haciendo varias búsquedas repetidas. Usa otro término o tema distinto. Prueba con otros navegadores o con otros buscadores (Yahoo, Bing…) o a hacerlo en modo incógnito. Anota en una tabla cuándo aparecen y cuándo cesan los anuncios en cada caso. ¿Encontraste alguna combinación de navegador, buscador y modo que no alterara el contenido de los anuncios que recibes habitualmente?
  • Efectos

Hace unos meses la ONU se hizo eco de casos concretos en los que delegar decisiones en algoritmos automáticos fue devastador, pues aumentaron las diferencias y potenciaron la pobreza de los más desfavorecidos. Aprende más en: https://tinyurl.com/algo-watch