Amparo Alonso: «El ciudadano tendrá más poder sobre sus datos en el futuro»

Manuel Blanco REDACCIÓN

MERCADOS

CESAR QUIAN

La presidenta de la Asociación Española de Inteligencia Artificial cree que ha llegado el momento de regular de verdad el uso de la información. De proteger al individuo al tiempo que se aprovecha el potencial que la revolución tecnológica habrá de aportar al bien común. Sus reflexiones no dejan lugar a dudas

23 feb 2020 . Actualizado a las 05:17 h.

Una hora con Amparo Alonso Betanzos (Vigo, 1961) da para mucho. Por lo mucho que sabe, pero también por su capacidad para transmitir ese conocimiento. Catedrática de Computación e Inteligencia Artificial de la Universidade da Coruña, pocas voces tan autorizadas como la suya para analizar la irrupción de una era llamada a cambiarlo todo. Ella defiende las bondades de la tecnología, pero también alerta de sus peligros. La inteligencia artificial (IA) solo tendrá sentido si es «ética», si trabaja al servicio de los ciudadanos, advierte.

-IA, «big data», «cloud computing»... Todo ello ha dejado de ser solo ciencia para convertirse en uno de los grandes polos económicos de la década, ¿coincide con este diagnóstico?

-Sí, de hecho, ya lo estamos viendo en los planes económicos de los gobiernos. En España, sin ir más lejos, la Secretaría de Digitalización e Inteligencia Artificial depende del Ministerio de Economía. EE.UU. tiene un plan desde hace muchos años, poniendo por ejemplo a disposición de los científicos bases de datos libres para poder investigar y avanzar, y en Europa existen también planes potentes, sobre todo en Francia y Alemania. En España vamos un poco retrasados.

-Usted ha sido crítica en este sentido. ¿Lo mantiene?

-Sí, porque seguimos sin tener un plan y no hay ninguna noticia que diga que lo vamos a tener en un corto plazo de tiempo. Es cierto que es importante tener un buen plan, pero debemos avanzar. Y eso que nos está ayudando un poco el desconcierto de Europa, con Alemania y sus problemas internos, Francia con los suyos, el brexit que ha dejado al Reino Unido fuera del juego europeo... España tiene ahí una ventana de oportunidad que es importante no perder, porque el último estudio publicado sobre este asunto revelaba que éramos el cuarto país en capacidad y potencial de desarrollo de IA y es importante no perder esa posición.

 -¿Nos están ganando por la mano en esta carrera los otros dos grandes bloques, me refiero a Estados Unidos y China?

-Es que con ellos no competimos. Estados Unidos está invirtiendo mucho dinero con sus grandes empresas, que tienen además los datos de todo el mundo, y China está haciendo una inversión brutal. Económicamente no podemos competir, pero sí en talento desde luego y lo estamos intentando hacer desde este aspecto ético que es una variable importante.

-En 1967, Paul Baran especuló con la idea de que, en el futuro, unos cuantos grandes ordenadores centralizados proporcionarían «servicios de procesado de información [...] igual que las compañías eléctricas venden electricidad ahora mismo», ¿no vivimos ya ese momento?

-Claramente. Hace unos años era muy difícil vender las capacidades que teníamos aquí como grupo de investigación porque en realidad lo nuestro era un servicio como el del suministro de electricidad. Hace 20 años tú podías crear una startup que fabricase algo, pero una que diera estos servicios era impensable. Y eso era precisamente lo que hacíamos nosotros. Hoy la economía mundial orbita en esta segunda dirección. Pero es que incluso compañías como Amazon, que uno podría pensar que venden otra cosa, no lo hacen, porque es una empresa tecnológica, cuyo negocio parte de los datos, de sus sistemas de recomendación, de su capacidad para predecir lo que vas a comprar...

 -¿Hemos vivido quizás demasiado entusiasmados con el universo digital al extremo de despreocuparnos de la parte que no es digamos tan bondadosa?

-Sin duda. Lo hemos ignorado bastante, empezamos a verlo socialmente cuando visualizas los problemas. Cuando ves que compañías como Facebook usan los datos para fines que no habías autorizado. Y es precisamente en este campo en el que Europa se ha puesto en valor. Recuerdo que hace unos años, justo cuando se empezaba a hablar de la ley de protección de datos europea, asistí al Big Data Spain y discutimos mucho sobre este asunto con colegas que venían de Silicon Valley. Ellos criticaban que la norma era demasiado restrictiva, nos decían que las empresas europeas iban a sufrir un retroceso importante a causa de su aprobación. Sin embargo, ahora nos están copiando porque el ciudadano se está dando cuenta de que existe un lado oscuro. La mayoría de los países salvo China están copiando estas regulaciones nacidas en Europa.

-Usted ha defendido siempre que Europa ha de liderar el desarrollo de una IA ética.

-Para mí fue un acierto el plan francés que promulgaba una IA al servicio de la humanidad, de las personas. Ha abierto un debate importante sobre la regulación de los datos, sobre la privacidad, sobre el uso que se les puede dar, pero también sobre las armas autónomas o el reconocimiento facial.

-Es sí es el mundo «orwelliano», el auténtico Gran Hermano.

-Cierto, y necesitamos ponerle coto a través de regulaciones.

-Los ejemplos de violaciones de la privacidad y los derechos de los usuarios son cada vez más flagrantes. Desde Cambridge Analytica a los operadores de Amazon que interactuaban en casas de clientes a través de cámaras de vigilancia, ¿no asustan un poco estos desmanes?

-Hay que ponerse ya con esto. Habrá alguna compañía, probablemente Apple o Google, que active un proyecto en este campo. Me refiero a la posibilidad de acceder a Internet de una forma más privada, encapsulando tus datos personales, evitando que tus apps proporcionen información personal...

-¿Llegará el ciudadano a vender sus datos, a rentabilizarlos?

-No creo que lleguemos a cobrar como tal. La forma de cobrar será quizás por un servicio. La empresa le ofrecerá un servicio gratis al ciudadano a cambio de una utilización concreta de los datos. Pero el ciudadano tendrá más poder sobre sus datos. Es impensable que alguien te use a tí físicamente porque eso está legislado y tienes tus derechos, pero es que tu persona digital también eres tú, también es parte de ti. Para los mayores quizás sea más difícil de visualizar pero para un chico de veinte años... Casi es más digital que físico, lo digital es una parte muy importante de su yo social.

-El otro día me comentaba una colega suya, la investigadora de la UVigo Rebeca Díaz, que la preocupación por la privacidad es más institucional que ciudadana, ¿coincide?

-A mí me preocupa desde luego. Cuanto más sabes sobre cómo funciona todo esto más te preocupa. Y el debate se intensificará cuando los algoritmos de IA estén inmersos en áreas más sensibles para la sociedad, como la salud o la educación, cuando el banco te diga que no te da un préstamo o la aseguradora no te dé cobertura por tu forma de conducir o por tus datos sanitarios.

-Porque los coches estarán hiperconectados y lo sabrán todo.

-Claro. Será fantástico porque evitarán accidentes o que te metas en un atasco, y eso es bueno, pero también registrarán otras muchas variables. Y el uso inadecuado de esa información puede generar disfunciones.