Patrocinado por:

Ética para robots

OCIO@

XOAN CARLOS GIL

No es ciencia ficción, en Europa es un tema que preocupa y ya se han diseñado directrices éticas para que las aplicaciones de inteligencia artificial sean fiables y no cometan sesgos. Sin embargo, según los expertos, a nivel normativo todavía hay mucho camino que recorrer.

05 dic 2019 . Actualizado a las 16:07 h.

Un coche autónomo se encuentra con un obstáculo en la carretera, trata de evitarlo y atropella a un peatón. El ejemplo es recurrente cuando se habla de inteligencia artificial. En este caso el dilema apenas tiene recorrido, la vida humana siempre prevalece ante cualquier otro daño, pero ¿y si no es tan fácil? ¿Y si la decisión es entre una embarazada o dos personas mayores, o entre dos grupos de tres personas? La inteligencia artificial tiene conflictos éticos, y los expertos ya han empezado a resolverlos.

Alberto Bugarín, catedrático de Ciencias de la Computación e Inteligencia Artificial de la USC, asegura que a nivel europeo esta preocupación no es tan reciente. «Los conflictos empiezan a aparecer cuando la inteligencia artificial (IA) se usa en aplicaciones que tienen que ver con la vida cotidiana de las personas o genera un impacto muy directo en ellas». De hecho, hace poco se constituyó en Europa un comité de expertos para el estudio de la IA que ha desarrollado unas directrices éticas para que las aplicaciones sean fiables.

Estos requisitos o valores deben tener en cuenta que la aplicación sea robusta, que no tenga sesgos, que respete la autonomía de los usuarios humanos o que si se trata de recomendaciones no busque un beneficio empresarial -«como es notorio que sucede a veces», aclara Bugarín- por encima de la utilidad para la que fue diseñada. Por ejemplo, un sistema de aprendizaje no puede representar solo a una parte de la población, «y los resultados deben analizarse para garantizar que no perjudiquen a un colectivo concreto». Santiago albergará en junio del 2020 el congreso europeo de IA y uno de sus ejes va a ser ese precisamente, «que la inteligencia artificial se centre en las personas, que sea confiable, explicable y segura», dice Bugarín.

César García Novoa, catedrático de Derecho Financiero y Tributario de la Universidade de Santiago, asegura que ciencia y ética siempre plantean puntos de fricción. Y también de responsabilidad civil. «El derecho tiene que ordenar que cuando se programe se tengan en cuenta ciertos valores de aceptación generalizada por la sociedad, y en la inteligencia artificial el derecho va muy por detrás de la realidad. Ahora mismo no hay ninguna respuesta jurídica y el derecho ha intervenido a posteriori», es decir, evaluando por ejemplo de quién es la responsabilidad si un coche autónomo atropella a una persona, ¿del programador o del titular del vehículo?

El camino pasa porque las máquinas puedan imitar el funcionamiento de la mente humana, pero esta tarea no es fácil y mucho menos cuando se trata de establecer ciertos valores. Por eso en este campo el trabajo interdisciplinar es más que necesario, «al desarrollo técnico que hacen los ingenieros informáticos y al análisis de los matemáticos hay que incorporar a personas del ámbito legal, de la psicología o del ámbito socioeconómico por el impacto social que se produce», apunta Bugarín.

Isabel Fraga Carou es profesora de Psicología en la USC y recuerda que la toma de decisiones no es fácil, «hay muchas situaciones que no son blancas o negras, y evidentemente por mucho que avance la inteligencia artificial el duende de lo humano nunca lo tendrá». Pero sí recuerda que la psicología cognitiva es una de las disciplinas que deben estar presentes cuando se abordan las directrices éticas. Y si hace treinta años la psicología cognitiva miraba hacia la tecnología y utilizó la metáfora del ordenador para explicar cómo funcionaba la mente humana, ahora es al revés, «ahora se trata de reproducir en la medida de lo posible el funcionamiento complejo del cerebro en la máquina», apunta Fraga Carou. Algo complicado, insiste, «porque el realmente inteligente es el humano».

La «ética» ya ha llegado a la IA. Hay modelos que explican al usuario humano por qué se toman ciertas decisiones o en qué se basan para tomarlas. Y proyectos europeos que trabajan en esa línea. Dos Advanced Grant, la élite de la investigación en la UE, desarrollan esta línea científica en Italia, y la propia USC, en el Centro Singular de Investigación en Tecnoloxías Intelixentes (Citius), lidera un proyecto para que la inteligencia artificial se explique con lenguaje natural, «para que el sistema nos explique con nuestras propias palabras las decisiones que toma».

Cuando se habla de regulación quizá lo más habitual es referirse a la IA aplicada a las redes sociales. Pero esta inteligencia va mucho más allá de la sociedad digital, «implica mecanismos programados que interactúan con el ser humano y tienen capacidad en determinados supuestos de tomar decisiones en lugar del ser humano», explica César García. La regulación, asegura, debe llegar a la IA, «aunque entiendo que nos va a costar que se acepte. Es necesario que se abra un debate en el que se prioricen los valores éticos universales».

Los ejemplos son múltiples. Un coche autónomo que debe priorizar la vida humana ante cualquier tipo de accidente. Un sistema de selección de personal que no puede aplicar los criterios economicistas si incurre en algún tipo de discriminación. Una máquina que debe evitar un accidente laboral aunque eso suponga paralizar la producción y una reducción de los beneficios. Son situaciones que en todo caso pueden abordarse a posteriori, como por ejemplo ha ocurrido con el atropello del coche autónomo, pero que poco a poco deben limitarse también a priori, en la propia programación de esta IA. Porque nunca alcanzarán la inteligencia humana, pero poco a poco pueden adoptar las conductas más racionales del hombre.