Lorena Jaume Palasí: «La IA no es inteligente ni tampoco es autónoma»

Manuel Blanco REDACCIÓN

EXTRAVOZ RED

Está considerada una de las voces más autorizadas de España en materia de inteligencia artificial. Algorithm Watch, la entidad sin ánimo de lucro de la que es directora ejecutiva, se dedica a supervisar el funcionamiento de los algoritmos y su impacto social. Lejos de lo que se pudiera presuponer, sin embargo, su discurso sobre la IA está muy lejos de ser catastrofista.

02 jul 2018 . Actualizado a las 19:40 h.

Sostienen las grandes voces de la IA en España que a Lorena Jaume Palasí hay que escucharla siempre. Que sabe bien de qué va este asunto. Eso mismo debió pensar el Gobierno en noviembre pasado cuando creo el Grupo de Sabios sobre Inteligencia Artificial y Big Data. La directora general de Algorithm Watch es una de las nueve personas que forman parte de este órgano que habrá de sentar las líneas estratégicas alrededor de un fenómeno responsable de lo que los economistas han bautizado ya como la cuarta revolución industrial. El campo en el que es una experta, no obstante, no es exactamente el financiero, sino el focalizado en la filosofía del derecho y las consideraciones éticas que han de guiar los procesos de automatización y digitalización. Jaume Palasí es muy crítica en cualquier caso con el discurso catastrofista generado alrededor de los agentes de inteligencia artificial y no duda en precisar que, tras estas consideraciones, late un profundo desconocimiento de lo que representan estas tecnologías.

Y ello a pesar de que voces tan autorizadas como la del recién fallecido Stephen Hawking han alertado insistentemente sobre la amenaza que representan. Sin ir más lejos, en una de sus últimas apariciones públicas días antes de su fallecimiento, el científico británico advirtió de que «una nueva forma de vida superará a los humanos. Si las personas diseñan virus informáticos (expuso en una entrevista a Cambridge News), alguien diseñará una IA que mejore y se replique a sí misma».

La experta española, quien dirige ambiciosos proyectos de digitalización en África y Asia y es colaboradora permanente de Naciones Unidas, considera estos augurios desproporcionados y lejos del potencial real de la inteligencia artificial. Jaume Palasí sostiene que los agentes IA no están capacitados para desarrollar la autonomía necesaria para inducir esa suerte catástrofe planetaria que pronostican expertos como Hawking, de ahí que module el impacto de este discurso.

El Instituto para el Futuro de la Humanidad de la Universidad de Oxford y Google han estado trabajando conjuntamente en un botón rojo para desconectar cualquier agente IA que se comporte de forma inapropiada. ¿Cuán cerca estamos de necesitar ese mecanismo?

¿La necesidad de un botón rojo en qué sentido? ¿Para desconectar a todos los robots que con ímpetu napoleónico intenten conquistar el mundo? Ese tipo de fantasías de las que se habla ahora son prueba del poco conocimiento que se tiene de los sistemas de automatización. Muchas de las tecnologías de inteligencia artificial son menos visibles que un robot y están integradas en sistemas bastante complejos de los que no se puede extraer un componente sin causar con ello problemas aún más graves. El escenario de un botón rojo abre muchas preguntas adicionales: ¿Un botón rojo con el que apagar todos los modelos existentes en el mercado de dicha tecnología? ¿O para desconectarla localmente? ¿Y qué se desconecta exactamente? Ese tipo de tecnologías suelen estar enlazadas con otros sistemas. ¿Se desconecta todo el sistema? Eso sería una mala idea en una central nuclear o en un hospital. ¿Se desconecta solo dicha tecnología? ¿Y qué pasa con las funciones que dependen de ella? ¿Hay un plan de emergencia para suplantarla?

El recién fallecido Stephen Hawking fue una de las voces más críticas con los avances en inteligencia artificial y uno de los impulsores del manifiesto de los mil en el que se alertaba de los peligros de la IA. ¿Coincide usted con estos planteamientos o los ve excesivamente alarmistas?

Es un manifesto basado en miedos no fundamentados o, por ponerlo en otras palabras, en un profundo desconocimiento de qué significa inteligencia y de los procesos lógicos requeridos para actuar con autonomía. Para mentir y engañar hay que saber contextualizar, ser capaces de ponerse en el lugar del otro para poder ser convincentes y sobre todo se debe tener una motivación y objetivos concretos. La motivación no surge haciendo estadísticas y calculando probabilidades. Surge dentro de otro terreno más allá del sistema inductivo.

¿Cuánto tiempo habrá de pasar para que sea preciso instalar en las máquinas las tres leyes de la robótica de Asimov? ¿Hablamos de décadas, lustros, años?

La inteligencia artificial no es inteligente, no entiende, no sabe contextualizar y, sobre todo, no es autónoma. Un error típico en este campo es el interpretar el concepto de automatización como sinónimo de autonomía, cuando en realidad son antónimos. Las tecnologías no piensan y no tienen voluntad, lo único que hacen es implementar las decisiones de una o más personas encargadas de escribir el software, administrar la base de datos con la que funcionan dichas tecnologías y de aplicar dichas tecnologías en un contexto determinado.

¿Se enfrentarán en algún momento los robots a dilemas de carácter ético (le hablo del coche autónomo a punto de atropellar a una madre y su bebé, por ejemplo) o realmente el potencial de la IA cambiará tanto los escenarios que hoy damos por cotidianos que no llegarán a enfrentarse a ellos?

Ya tenemos conflictos éticos dentro de este campo. Los algoritmos en los que se basa la inteligencia artificial son creados por seres humanos. Este tipo de tecnología es en cierto modo una forma de lenguaje con la que se formalizan situaciones en nuestra sociedad (el escoring para calcular el bono del que solicita un crédito, por ejemplo). Y como en todo lenguaje, se esconden prejuicios y presuposiciones que pueden crear procesos muy discriminatorios; hay software que se usa en el control de fronteras y que clasifica por ejemplo a periodistas como terroristas porque ambos perfiles viajan mucho a países con conflictos. Si el oficial en la embajada no sabe interpretar los resultados bien, acabará negando al periodista una visa. Este tipo de problemas tienen solución pero no se pueden resolver si no somos conscientes de ello.

La Comisión Europea trabaja ya en una regulación específica para este ámbito. ¿En qué medida ve necesario crear un escenario legal para la IA? ¿No es demasiado difuso?

Eso me sorprende. La última vez que hablé con la Comisión se mostró bastante reacia a cualquier tipo de iniciativa regulatoria ya que de momento estamos intentando analizar el impacto y los conflictos de dichas tecnologías en la sociedad y aún no está claro dónde hay necesidad de reforma regulatoria o de proyecto de ley. Este tipo de enfoque legal es problemático porque no se centra en los problemas o valores sociales a proteger sino en la regulación de la tecnología en sí, lo cual es futil ya que los ciclos de innovación tecnológica son más rápidos que el proceso de regulación, con lo cual las leyes siempre se quedan atrás. Desde el punto de vista ético, la ley tendría que ser neutral ante la tecnología y centrarse en los valores humanos y conflictos sociales provocados por esas tecnologías.