Ética para robots

RED

XOAN CARLOS GIL

No es ciencia ficción, en Europa es un tema que preocupa y ya se han diseñado directrices éticas para que las aplicaciones de inteligencia artificial sean fiables y no cometan sesgos. Sin embargo, según los expertos, a nivel normativo todavía hay mucho camino que recorrer.

05 dic 2019 . Actualizado a las 16:07 h.

Un coche autónomo se encuentra con un obstáculo en la carretera, trata de evitarlo y atropella a un peatón. El ejemplo es recurrente cuando se habla de inteligencia artificial. En este caso el dilema apenas tiene recorrido, la vida humana siempre prevalece ante cualquier otro daño, pero ¿y si no es tan fácil? ¿Y si la decisión es entre una embarazada o dos personas mayores, o entre dos grupos de tres personas? La inteligencia artificial tiene conflictos éticos, y los expertos ya han empezado a resolverlos.

Alberto Bugarín, catedrático de Ciencias de la Computación e Inteligencia Artificial de la USC, asegura que a nivel europeo esta preocupación no es tan reciente. «Los conflictos empiezan a aparecer cuando la inteligencia artificial (IA) se usa en aplicaciones que tienen que ver con la vida cotidiana de las personas o genera un impacto muy directo en ellas». De hecho, hace poco se constituyó en Europa un comité de expertos para el estudio de la IA que ha desarrollado unas directrices éticas para que las aplicaciones sean fiables.

Estos requisitos o valores deben tener en cuenta que la aplicación sea robusta, que no tenga sesgos, que respete la autonomía de los usuarios humanos o que si se trata de recomendaciones no busque un beneficio empresarial -«como es notorio que sucede a veces», aclara Bugarín- por encima de la utilidad para la que fue diseñada. Por ejemplo, un sistema de aprendizaje no puede representar solo a una parte de la población, «y los resultados deben analizarse para garantizar que no perjudiquen a un colectivo concreto». Santiago albergará en junio del 2020 el congreso europeo de IA y uno de sus ejes va a ser ese precisamente, «que la inteligencia artificial se centre en las personas, que sea confiable, explicable y segura», dice Bugarín.