El magistrado Marchena dice en Vigo que el Tribunal Supremo ya le está poniendo límites a la inteligencia artificial

e. v. pita VIGO / LA VOZ

VIGO

M.Moralejo

El presidente de la sala de lo penal advierte de que la Justicia predictiva es un «escenario peligroso» y que los delitos del metaverso serán penalizados igual que en la vida real. Los algoritmos estadísticos ya se aplican por los jueces para denegar la libertad condicional y marcan de por vida a un maltratador o insolvente por su historial

26 may 2023 . Actualizado a las 19:20 h.

El presidente de la sala de lo penal del Tribunal Supremo, Manuel Marchena, ha alertado esta tarde en Vigo de los peligros de la inteligencia artificial y la justicia robótica, una tecnología que ve «imparable» que «evoluciona a velocidad de vértigo» y que generará cambios inéditos. Intuye algunos problemas como la pérdida del derecho a la motivación de la sentencia o a la doble instancia porque los fallos de las máquinas suelen ser firmes e inapelables. Por ello, aconseja que la inteligencia artificial solo sea una herramienta que complemente al juez pero no lo reemplace, debido a las muchas lagunas legales que genera. Respecto al metaverso, Marchena avisó de que aquello que es delito en la vida real debería serlo también en el metaverso y la vida virtual. Recordó la propuesta del jurista Lawrence Lessig de dotar de un código a cada internauta para identificarlo cuando entra en Internet y evitar así la impunidad del anonimato.

Así lo manifestó el magistrado Marchena en una conferencia que impartió en el Congreso de Primavera organizado por Avogados Novos y que se celebró en el Círculo de Empresarios de Galicia. Abogó por una justicia de rostro humano y la utilidad del juez frente a unos algoritmos que basan sus predicciones en estadísticas y no estudian los detalles del caso concreto. Recordó que la nueva constitución fallida de Chile ya se había anticipado a esta problemática y establecía los neuroderechos de los ciudadanos, para protegerlos de la invasión de la privacidad de los pensamientos a través de dispositivos de escaneo cerebral. Recientemente Elon Musk apostó por esta nueva tecnología.

Marchena avanzó que la sala de lo penal ya tiene una doctrina de «mínimos» sobre inteligencia artificial, por ejemplo a la hora de limitar el GPS como prueba puesto que este geolocalizador puede desvelar no solo las coordenadas de ubicación de una persona vigilada pero también aspectos de su vida íntima como si asiste a misa de una religión concreta o a un mitin de determinado partido, si va a la sauna o a un prostíbulo, o visita un parador con una pareja.

El magistrado respondía así en el turno de preguntas al abogado Del Río sobre si la sala del Supremo ya tenía jurisdicción sobre inteligencia artificial a la hora de validar como prueba una grabación que un ciudadano medio no puede distinguir si es real o elaborada con algoritmos.

El magistrado indicó que las aplicaciones de inteligencia artificial ya se están aplicando en el mundo judicial, como un algoritmo que usan los fiscales de Shanghái para presentar acusaciones con un 97 % de aciertos. Estos algoritmos judiciales chinos no solo resuelven delitos de tráfico y de embriaguez al volante o conducción sin carné, sino también para lesiones dolosas, fraude, estafas y la solicitud de prisión preventiva para detenidos. Recordó que los «datos son el petróleo del siglo XXI». Recuerda que algunos Estados se han convertido en «dictaduras digitales con vocación de permanencia» que hacen acopio de datos y tienen un perfil de cada ciudadano para manipularlo sin que este sepa con quién puede aliarse para defenderse.

Otros usos que se están experimentando en Estados Unidos es la aplicación Do not pay, un algoritmo que asesora en directo a un litigante en juicios de reclamaciones ahorrándose la minuta del abogado pero cuyo uso en los juicios ha suspendido un juez. En el Reino Unido, opera un algoritmo para las small claims (reclamaciones inferiores a 10.000 libras). En Estonia, funcionan dispositivos del mismo tipo en la Administración electrónica. En España, la Policía Nacional usa el algoritmo Veripol para cribar las denuncias falsas de robo de móviles para defraudar al seguro y VioGen para predecir la reincidencia de un maltratador. Programas como Compas, en Estados Unidos, deciden sobre el riesgo de reincidencia y la peligrosidad social de un detenido y a pesar de sus sesgos racistas y de género (masculino), la Justicia los ha legitimado. Otro programa ha recopilado las sentencias de una magistrada del Tribunal Supremo y da respuestas en una web con su estilo. El hecho de aplicar la inteligencia artificial a los pleitos de patentes ha abaratado el coste de los abogados en Estados Unidos porque muchos algoritmos predicen las posibilidades de éxito y los litigantes prefieren llegar a acuerdos o pactos, de forma que este tipo de juicios casi han desaparecido.

Marchena se plantea cómo deben limitarse estos algoritmos predictivos basados en potencia estadística. «¿Tengo que ser yo maltratador para siempre o un peligro social porque lo dice un algoritmo o es mejor que esto lo decida un juez?», se pregunta el magistrado del Supremo. «Estamos ante un escenario peligroso, el de la justicia predictiva. La verdad del algoritmo es solo estadística», indicó.

Marcena indicó que «en el Supremo le hemos puesto límites a la inteligencia artificial» cuando dispositivos como el GPS «van más allá» de la ubicación. «En la sala hay sensibilidad por la inteligencia artificial» y que el Supremo está haciendo un gran esfuerzo de adaptación a las nuevas tecnologías aunque admitió que «estamos en manos de los peritos» a la hora de acreditar, por ejemplo, si unas grabaciones son reales o fake.

Teme que el catálogo de derechos liberales vaya a cambiar y que los ciudadanos están ante un problema «gordísimo» porque la justicia realizada con máquinas predictivas es un «escenario peligroso», dado que los algoritmos se basan en estadísticas y no en la constitucionalidad. «El dispositivo algorítmico es esclavo de su propia precisión matemática», dijo. En tono jocoso, que los ciudadanos siempre preferirán que su caso sea examinado por un juez de carne y hueso, aunque solo sea para insultarlo, en alusión a la descalificación permanente que sufre la justicia española y que considera cada día más injusta.

El jurista prevé algunos problemas jurídicos que generará la inteligencia artificial como la presunción de la inocencia invertida, cuando una máquina toma medidas preventivas hacia un ciudadano al que estadísticamente etiqueta como un peligro social y que le obliga a ser él quien demuestre su inocencia porque desaparece la presunción. Otra cuestión que plantea es la segunda instancia porque a dónde recurre el ciudadano si no está de acuerdo con un fallo judicial dictado por un algoritmo que solo es estadísticamente correcto. Incluso si los programadores entregasen el código que revela cómo se dictó la resolución, el litigante o su bufete tendrían que contratar a un informático para interpretar el informe. El juez recalcó que un algoritmo sabe decidir pero no razonar y recordó que el reglamento europeo aboga por el principio de imparcialidad del programador, la identidad algorítmica, la dignidad ante el algoritmo y la rebeldía frente al etiquetado de las personas como morosos o como un peligro social. Da por hecho que el coche autónomo provocará un enorme impacto en el derecho penal y civil.

Marchena también prevé consecuencias en el empleo porque la IA obligará a los trabajadores a adaptarse cada cinco años a un nuevo puesto y estos van a tener una permanente sensación de pérdida de trabajo, lo que considera la enfermedad del siglo XXI, citando a un filósofo israelí. Este fenómeno lo ve ya en el sector del profesorado porque, después del confinamiento del covid, muchos docentes pidieron la excedencia y ve un alto índice de abandono para no dar clase ni lidiar con las nuevas tecnologías electrónicas a las que no querían adaptarse.

Marchena no duda que los algoritmos serían útiles para resolver miles de casos repetitivos, como el del cobro de céntimos de gasoil de los camiones o reclamaciones del covid, pero recuerda que otras veces estas mismas herramientas, que solo ve útiles como complemento del juez, pueden generar problemas al etiquetar a personas como peligro social sin saber explicar por qué. Respecto a la inteligencia generativa de ChatGPT prevé numerosos pleitos por propiedad intelectual.

Posteriormente, intervino el titular del Juzgado de Instrucción número 4 de Vigo, Juan Carlos Carballal, que expuso una ponencia sobre la prueba digital.

Avogados Novos es presidido por Ester Alonso, que compartió mesa con los ponentes.