Paolo Rosso: «Reenviamos noticias falsas solo porque nos gustan o coinciden con nuestra ideología»

M. CARNEIRO A CORUÑA / LA VOZ

A CORUÑA CIUDAD

César Quian

El catedrático de la Politècnica de València investiga modelos automáticos de inteligencia artificial capaces de detectar mensajes de odio y «fake news»

24 sep 2022 . Actualizado a las 05:00 h.

Paolo Rosso (Génova, 1964) asiste al 38.º Congreso Internacional de la Sociedad Española para el Procesamiento del Lenguaje Natural, que ha traído a A Coruña a algunos de los investigadores principales de esta rama de la inteligencia artificial, arraigada en la vida corriente como pocas veces se piensa. El catedrático de la Politécnica de Valencia dará este lunes una charla en la Facultade de Informática (11.30 horas) sobre un proyecto del Gobierno en el que trabaja para identificar fake news y la ideología de las teorías de la conspiración. Ha sido su campo de investigación en los últimos años desarrollar sistemas informáticos capaces de detectar noticias falsas y mensajes de odio.

—¿Para qué sirven y a quién?

—Es importante que nos demos cuenta de la cantidad de información falsa que existe y el daño que puede hacer. Pensemos en los medios caseros para combatir el coronavirus o en supuestos sucesos relacionados con inmigrantes. Los modelos sirven para descubrir patrones y no creer todo lo que nos llegue.

—¿Eliminan lo sospechoso?

—No, los métodos automáticos de inteligencia artificial no sustituyen nuestra toma de decisiones. Resaltan mensajes que potencialmente contienen información falsa porque no son capaces de averiguar una fuente que la acredite. Y lo mismo con los mensajes de odio, a veces explícitos y otras no tanto. A través de estereotipos, sobre las mujeres o sobre los inmigrantes, transmiten el desprecio de forma sutil.

—¿Cómo funcionan?

—Se trata de cómo aprenden. Igual que un estudiante que tiene que preparar un examen lo que hace es aprender con muchos ejercicios de los que sabe la solución, los modelos también se entrenan. Algo que humanamente no sería posible de forma manual, como procesar millones de documentos, se hace de manera automática. Por ejemplo, suministramos tuits etiquetados por fact-checkers [verificadores de organismos como maldita.es o newtral.es], cuyo trabajo consiste en averiguar lo antes posible si una noticia que empieza a hacerse viral está sustentada por una fuente de información contrastada antes de que se haga demasiado viral y pueda provocar problemas a la gente.

—¿Qué patrones encuentran?

—Intentan sorprender y provocar emociones de rabia, enfado o asco, pero también aparecen estereotipos, patrones ocultos, no evidentes.

—¿Quién está detrás?

—Ese terreno va un poco más allá de lo que un lingüista computacional debe pisar. Nuestro trabajo con el Observatorio Español contra el Racismo y la Xenofobia ha sido ayudar al análisis de por qué algunos mensajes pueden considerarse agresivos. Se estudian patrones, palabras, emociones, objetivos (inmigrantes, mujeres). Se intentan inferir las razones y estudiar el fenómeno (The Dark Side of the Moon, por utilizar un trabajo de Pink Floyd), para cambiar patrones de conducta y no creernos todo.

—¿Cómo afecta el sesgo de confirmación?

—Hay estudios que empiezan a subrayar que la mayor parte de los mensajes que contienen información falsa han sido propagados por individuos por sesgo de confirmación. Nos llegan noticias falsas por un bot o por alguien conocido y por el solo hecho de que nos gusta o coincide con nuestra ideología lo creemos y reenviamos. Es demasiado fácil jugar a tirar balones fuera, pero la culpa la tenemos nosotros por enviar automáticamente el chiste sexista o contra los inmigrantes.

«Imagina mensajes sexistas analizados por cinco varones. Muchos no se etiquetarían»

¿Quién decide que un comentario destila odio, es machista o xenófobo? Paolo Rosso advierte de la dificultad de llegar a conclusiones objetivas y de la necesidad de formar equipos multidisciplinares integrados por lingüistas y psicólogos sociales al lado de los informáticos.

—Tenemos que ver qué narrativas hay detrás y para eso hay que abordarlo de manera multidisciplinar. No siempre es fácil, porque son mundos diferentes, pero de otro modo es muy simplista. Lo primero es entender el fenómeno, ver qué narrativas aparecen, cómo etiquetarlos con ayuda de expertos, y después sí, entrenar el sistema con miles de mensajes para poder inferir de manera automática esos patrones.

—¿Por qué estos modelos no se han implantado todavía?

—Porque es complejo, porque el resultado de estos modelos basados en aprendizaje depende de quién etiqueta los mensajes. Imagina mensajes sexistas analizados por cinco personas y los cinco varones. Muchos no vendrían etiquetados. Con las fake news lo mismo, depende de la ideología, de si lo dice un régimen totalitario o una dictadura. Y volvemos al sesgo de confirmación. Es delicado. Lógicamente tener equipos plurales de etiquetadores sería más justo para tomar decisiones.