Lassalle: «La huella digital se convierte en una especie de pecado original que nos acompaña de por vida»

Tamara Montero
Tamara Montero SANTIAGO / LA VOZ

SOCIEDAD

Sandra Alonso

«Se regula cómo es un yogur pero no cómo es el algoritmo que fija si puedo tener una tarjeta de crédito o no»

28 feb 2020 . Actualizado a las 05:00 h.

José María Lassalle (Santander, 1966) participó ayer en el ciclo Pensarmos del Consello da Cultura, en el que reflexionó sobre la necesidad de un humanismo tecnológico, como postula en su libro Ciberleviatán.

-La revolución digital está demoliendo la democracia. ¿Sería un buen titular?

 -Sí, la verdad es que sí. Está modificando su eje de legimitidad política al impulsar una forma de autoritarismo tecnológico que sirve a un nuevo modelo de populismo que va a reivindicar abiertamente la dictadura como una forma de democracia por adhesión.

-Una dictadura en la nube.

-Carl Schmitt, uno de los grandes teóricos del pensamiento fascista, sostenía en los años 20 que las democracias viables en un mundo marcado por la complejidad y por el conflicto eran democracias por adhesión alrededor del liderazgo. Eso estimuló los fascismos, pero fracasaron porque el fascismo no fue capaz de militarizar completamente a las sociedades y erradicar la oposición que toda dictadura es capaz de provocar. Hoy, la tecnología está desarrollando mecanismos de control social y de represión inconsciente y de vigilancia que permiten identificar dónde están los márgenes potencialmente opositores que en el período de entreguerras no se daban. Eso hace que en estos momentos nos encontremos ante un marco en el que la tecnología puede convertirse en un aliado de la distopía tiránica, que es de alguna manera lo que yo planteo al reflexionar sobre el Ciberleviatán.

-Otra propuesta de titular: los algoritmos destruyen la Revolución Francesa y la Revolución industrial.

-Sí. Sí, porque la conquista que supuso la ciudadanía con la Revolución Francesa y toda su generación de derechos, empezando por los democráticos, están siendo modificados en la medida en que estamos en un mundo en el que nuestra identidad está marcada por unos algoritmos que no cuentan con nuestra capacidad de decisión, sino que nos dictan como ser más eficientemente nosotros. En segundo lugar, porque nuestros derechos laborales, nacidos de un siglo de conquistas políticas, de luchas sindicales, obreras, sociales, de concienciación, están siendo cuestionadas por la aparición de en primer lugar un modelo de economía de plataformas que no necesita del trabajo humano y por unos algoritmos que permiten generación de valor económico a partir de la inteligencia artificial y la robótica, que tampoco tienen derechos porque son máquinas. Que no tienen por tanto la dimensión política que todavía tiene el ser humano.

-Utiliza conceptos como libertad asistida.

-Estamos reprimiendo nuestra libertad en la medida en la que aceptamos por ejemplo un algoritmo que predice qué queremos consumir cuando abrimos una aplicación que tiene contenidos audiovisuales y que nos sugiere qué es lo que probablemente nos gusta de acuerdo con nuestra huella digital. Y sucederá en el marco del uso de un vehículo autónomo que ya no conduzcamos nosotros, sino que lo hará en función de la prescriptibilidad, que no predicibilidad, de nuestra conducta presunta en función de nuestras necesidades de trabajo, de nuestra agenda cotidiana. Y si nos salimos de esos márgenes estaremos provocando un escenario no previsto que será resuelto por la primacía de la decisión de la máquina sobre nosotros.

La tecnología puede convertirse en un aliado de la distopía tiránica

-Pero eso es una pesadilla.

-Pero ya empieza a entreverse cuando Amazon o Netflix nos dicen lo que debemos consumir en función de nuestros gustos, y por tanto impide la libertad de elección basada en el error, en la falibilidad, en experimentarnos a nosotros mismos desde sondear qué es lo que nos gusta.

-Viene a hablar de humanismo tecnológico y estamos hablando de prácticamente el fin de la humanidad, de lo que nos hace humanos.

-Por eso es importante un nuevo humanismo tecnológico que permita poner la tecnología al servicio de la persona. Es decir, no convertir al ser humano, como decía Kant, en un instrumento, sino en recuperar al ser humano como un fin en sí mismo. Eso implica que los sesgos algorítmicos, que el diseño de las máquinas, que la manera en la que los robots tengan que colaborar con las personas, salvaguarden el protagonismo y la centralidad humana en las decisiones que tengamos que adoptar alrededor de estas cuestiones.

-Han prohibido un algoritmo que predecía la criminalidad, igualito que «Minority Report». ¿Es el escenario al que nos encaminamos?

-Nos encaminamos, no, estamos en él, porque la concesión de una tarjeta de crédito está subordinada a un algoritmo que decide en función de la huella digital de consumo y de nuestros recursos económicos. Y en Estados Unidos, por ejemplo, no tener una tarjeta de crédito es no existir. Con lo cual, puedes estar condenado de por vida, porque como además no se reconoce el derecho al olvido... Por tanto, la huella digital se convierte en una especie de pecado original que nos va acompañando durante todo nuestra vida y frente al que no cabe, de acuerdo con la teología católica, la posibilidad de liberarnos de la culpa confesándonos pecadores, sino que como piensa el calvinismo, la culpa nos acompaña siempre. Tenemos que estar liberándonos de ella a base de darnos golpes de pecho y aceptando lo que el dios tecnológico quiere de cada uno de nosotros.

Sandra Alonso

-Dice que el todo gratis nos van a empezar a cobrar.

-Ya nos lo están cobrando, porque nada es gratis. Cuando algo es gratis en Internet es que nosotros somos el precio. Por ejemplo la famosa aplicación del ritmo biométrico que interpretaba como ibas a ser dentro de 40 años, lo que estaba buscando es el valor añadido de agregación de la expresión facil que proyecta nuestro rostro y que es un valor económico fundamental.

-Pero es un callejón sin salida. Sin esos servicios dejas de estar en el mundo y si los utilizas... No hay capacidad de decisión.

-Por eso hace falta que la democracia cobre conciencia de que no puede seguir permitiendo que todas estas cosas pasen sin regulación. Y por eso es imprescindible que la democracia dote a los ciudadanos de una serie de derechos digitales que les permitan empoderarse como sujetos frente a las grandes corporaciones tecnológicas. Por eso es necesario que la ley regule cómo se realizan los algoritmos, o que se introduzca una función social alrededor de los mismos, que los desapropie del control de las corporaciones transcurridos unos años o que nos empodere a nosotros sobre cómo administrar nuestra huella digital y decidir con quién y bajo que precio se hace uso de nuestros datos. Es decir, crear un marco regulatorio que en estos momentos no existe y que resulta increíble que no exista cuando hay una regulación para determinar cómo ha de ser un yogur y sin embargo no hay una regulación que determine cómo ha de ser el algoritmo que fije si puedo tener una tarjeta de crédito o no.

-Y solo Europa puede arreglar esto.

-Sí, porque tiene detrás una preocupación por la relación del hombre con la técnica que es milenaria, que viene acompañando al pensamiento filosófico y a nuestra cultura.  Y en segundo lugar porque hay una cultura humanística con diferentes capas históricas, con sedimentos que pueden ser reutilizados para tratar de vestir  la manera en la que envolvamos la relación del hombre con la técnica en el siglo XXI.

Todo ese tsunami de datos altera nuestra propia estabilidad emocional y nos lleva a la paranoia, a los populismos y mi miedo es que nos lleve al fascismo

-¿Pero por qué no podrían hacer este trabajo Estados Unidas o los gigantes asiáticos?

-Porque Europa tiene una cultura regulatoria mucho más asentada, tiene más identificada una preocupación por la justicia y por la ética y una trayectoria humanística milenaria, mientras que los Estados Unidos tienen un modelo de desarrollo tecnológico muy localizado en la eficiencia de sus utilidades económicas y en como maximizar la monetización de las apps y el desarrollo de contenidos. Y China también, pero además tiene una cultura donde la persona es irrelevante y donde el único interés que tiene la persona es convertirla en un sujeto sometido al poder sin ningún tipo de intermediación.

-¿Las nuevas tecnologías destruyen la verdad? Porque los algoritmos solo muestran lo que la gente quiere ver.

-Sí. [Piensa] Creo que el periodismo es víctima de la desintermediación, que hace que la gente se crea con derecho a informarse en cualquier fuente sin contrastabilidad. En estos momentos vale lo mismo lo que un lunático pueda colgar en su blog defendiendo que la Tierra es plana que lo que pueda plantear un editorial del New York Times acerca del problema del cambio climático. La accesibilidad e incluso la visibilidad alrededor de ambas informaciones es prácticamente la misma. Una parte muy importante del alarmismo que está provocando el coronavirus es consecuencia también de la crisis que el modelo de negocio de la prensa experimenta y que hace que necesite tener a millones de personas enganchadas en tiempo real a la información que colocan en sus páginas. Esta situación hace que cada vez demos mucho más valor a lo que circula por las redes sin tener capacidad de identificación correcta sobre la veracidad o no que acompaña esa información y los propios cauces de transmisión del conocimiento.

-No es solo la prensa, es que la credibilidad de las instituciones se ha quebrado también.

-Porque estamos en este escenario que ha potenciado la revolución digital de desintermediación, donde no hace falta instancias de mediación institucionales, a través de las cuales la gente refiltre la manera de aproximarse a la realidad. Consumimos la realidad en todas sus dimensiones sin intermediación y nos aproximamos a todas las explicaciones que circulan por el mundo. Hemos construido una civilización que se basaba en la intermediación, con todos sus problemas de equidad, de justicia, pero donde la intermediación era necesaria y tenía unos efectos en parte positivos. Ahora tenemos todos los efectos negativos de la desintermediación y ninguno de los efectos positivos, con lo cual estamos absolutamente expuestos a un hambre de información sin capacidad de gestión. Todo ese tsunami de datos que nos está alterando nuestra propia estabilidad emocional nos lleva a la paranoia, a los populismos y mi miedo es que nos lleve al fascismo.

-Hay quien opina que hablar de fascismo quizá es exagerado.

-Pero vamos a un fascismo distinto. Lo que viene no va a significar que reproduzca el militarismo. La dictadura ya no va a querer organizar la sociedad como si fuera un ejército universal donde todos vamos a estar uniformados. Ahora vestir uniforme no es atractivo, en los años 20 sí. Ahora lo que es atractivo es estar normalizado y uniformado conforme a los patrones que marcan por ejemplo las redes sociales y que identifican una corrección política que antes no existía. Y sobre la base de esos patrones de corrección política estamos fundamentando una normalización que margina la heterodoxia. Y siempre que hay heterodoxos a los que se persigue hay detrás una mente de vigilancia que respalda una concentración del poder y un cuestionamiento de la diversidad. Ese es el riesgo que tenemos.