Juan Antonio Xiol: «El caso Pegasus es un ejemplo de los riesgos de la inteligencia artificial»

Uxía Carrera Fernández
Uxía Carrera SARRIA / LA VOZ

SARRIA

El vicepresidente del Tribunal Constitucional, Juan Antonio Xiol Ríos, este viernes, en unas jornadas jurídicas en Sarria
El vicepresidente del Tribunal Constitucional, Juan Antonio Xiol Ríos, este viernes, en unas jornadas jurídicas en Sarria ALBERTO LÓPEZ

El vicepresidente del Tribunal Constitucional analizó en unas jornadas en Sarria las claves jurídicas del uso de los nuevos algoritmos y sus posibles sesgos

04 jun 2022 . Actualizado a las 05:00 h.

«Hay que dotar a las máquinas de personalidad, aunque parezca ficción». Así terminó el vicepresidente del Tribunal Constitucional, Juan Antonio Xiol Ríos, su ponencia este viernes en las Jornadas Jurídicas de Sarria, que trataban la relación de la inteligencia artificial (IA) y el derecho. El magistrado aboga por recuperar el papel de la filosofía y la ética como claves para que la tecnología respete los derechos fundamentales.

—¿La inteligencia artificial es el mayor reto al que se enfrentó el tribunal?

—En derecho hemos tenido siempre muchos desafíos, pero este es muy serio porque nos ha tocado muy de cerca. El papel del jurista siempre ha encontrado un hueco, pero la inteligencia artificial llama a prescindir de la intervención humana. Además, en el momento en que los sistemas actúan por su cuenta y son capaces de modificar sus algoritmos, el programador pierde el contacto. No sabemos por dónde puede salir la máquina y por qué.

—Decía en su ponencia que la Administración Pública apenas hace uso de estos sistemas.

—En el 2016, se aprobó una Ley de Administración Electrónica que avanzó mucho, pero solamente en las comunicaciones entre las Administraciones. En la aplicación de la inteligencia artificial la Administración ha ido con mucha más prudencia. La tributaria fue la primera que autorizó procedimientos automatizados.

—¿Cuál sería su uso público más importante?

—Desde el punto de vista de la función judicial, con las bases de datos jurisprudenciales la inteligencia artificial puede desarrollar observaciones muy importantes. Puede dialogar con la sociedad por medios muy directos. Como, por ejemplo, ver cuál es la aceptación de una jurisprudencia, para ver si una determinada línea conviene mantenerla o no. Por ejemplo, con el aborto. Con la IA es pan comido saber si una sentencia es rechazada por la sociedad. Esto crea interrogantes muy importantes en cuanto a su viabilidad. En una sociedad es imprescindible la separación de poderes y algo como esto, que puede amenazarla, hay que verlo con cierta precaución.

—Citó el caso Pegasus. ¿Es un ejemplo de los riesgos de la inteligencia artificial?

—Sí, al Constitucional no llegó nada de momento, pero existe la posibilidad de que puedan llegar recursos de amparo porque consideran lesionados sus derechos fundamentales. Aquí podrían ser el derecho a la intimidad, el secreto de las comunicaciones, la protección de datos o la libre autodeterminación informativa. También fue interesante en España el caso de la Asamblea Nacional Catalana, que había hecho una encuesta sobre el procés, recabó datos sobre ideas políticas y los incorporó a su base de datos. Les impuso una multa la Agencia de Protección de Datos y el TC lo confirmó. El Constitucional anuló hace años un pretexto de que los partidos políticos pudieran utilizar los datos de los ciudadanos más sensibles, sobre la ideología política o la religión.

—Protección de datos, consumo, contratación... ¿Qué ámbito preocupa más?

—El riesgo que preocupa son los sesgos que puede haber de tipo racial o de género. Como los programas que calculan el riesgo de reincidencia y concluyen que es mayor según la raza. ¿Hasta qué punto es aceptable un cálculo basado en esto? Es un reto corregir estos sesgos, que no son más que el reflejo de los sesgos de los jueces, que también los hay machistas o racistas.

—El Derecho está adaptándose, ¿el ciudadano está amparado?

—Sí, porque sobre todo se está actuando con mucha prudencia.