Los expertos alertan de que los robots podrían convertirse en los nuevos piratas informáticos

Carlos Portolés / M.P . REDACCIÓN

SOCIEDAD

Europa Press

Advierten de que actualmente se está infravalorando la seguridad alrededor de la inteligencia artificial

31 jul 2021 . Actualizado a las 10:48 h.

El año pasado, el número de ataques informáticos sufridos por empresas y particulares ascendió de manera exponencial. Casi un 70 %, algo que preocupa a las autoridades. En datos más cristalinos; el Centro Criptológico Nacional (CCN) documentó 73.184 ciberamenazas, y el Centro Nacional de Inteligencia (CNI) monitorizó 6.690 casos de peligrosidad «muy alta». Con la intrincación de los abordajes digitales, aumenta el temor a que surjan nuevos modelos de hacking deshumanizados.

Los expertos aseguran que existe la posibilidad de que en el futuro, los piratas informáticos puedan ser robots, y eso puede complicar la lucha por la seguridad en la red. La explotación sin escrúpulo del reverso tenebroso de la Inteligencia Artificial multiplica los peligros del terreno minado de la red. «No es la primera referencia, ni tampoco será la última, relativa a los potenciales peligros de esta tecnología», explica Josep Curto, profesor de Estudios de Informática, Multimedia y Telecomunicación de la UOC.

La falta de abstracción sensible de la Inteligencia Artificial es aprovechable para la construcción de modelos analíticos cimentados en lo equitativo. No obstante, a pesar de las evidentes bondades de lo algorítmico, el fuego amigo comienza a tornarse frecuente y temible. La máquina «busca automatizar tareas de toda índole, desde la asignación de un crédito hasta la selección de personal. Y el uso de algoritmos no está libre de errores, bugs, omisiones, propósitos específicos y sesgos de todo tipo. Esto puede provocar problemas sociales, económicos y políticos», afirma Curto.

Implementar protocolos

Sin embargo, lejos del fatalismoposludita, los profesionales del campo apuntan a que las soluciones de estos problemas emergentes no pasan por frenar el desarrollo de tecnológico, sino por el replanteamiento estructural de los protocolos y las medidas de prevención para adaptarlos a los volátiles flagelos de lo digital, concretando así un nuevo discurrir en el gobierno de las innovaciones encriptadas.

«Se trata de monitorizar el modelo, cómo toma decisiones, qué sesgos le afectan, cómo evoluciona su rendimiento... En definitiva, de introducir el gobierno de la inteligencia artificial», añade Josep Curto. El gran reto es volver a aprender a dominar a la máquina. Tratar de alcanzar una comprensión más profunda de nuestro propio invento para poder sofisticar los protocolos de protección.

Los movimientos sospechosos de la inteligencia artifical, y la posibilidad de inanimada rebelión, son peligros reales que llaman a la puerta y exigen un ejercicio amplio de introspección y de acción preventiva. «La inteligencia artificial es cada vez más opaca, ya que continuamente salen algoritmos más potentes y más rápidos», asegura el también profesor de la UOC Jordi Serra.

Pero el ser cauto no puede traducirse en caminar con pies temblorosos y en continuo estado de pánico. Los avances científicos pueden hacer las cosas mucho más fáciles y son un pilar fundamental de los más elevados estándares de calidad de vida. «Al final solo son cajas en las que se introducen los datos», dice Serra.

Josep Curto recuerda el caso de Cambrigde Analytica para poner de manifiesto el peligro de digitalizar determinados procesos sin una supervisión controlada. «Muchas organizaciones no tienen claro ni cómo funcionan los sistemas de inteligencia artifical ni cómo gobernarlos de forma adecuada ni tampoco el impacto social, por lo que no se toman en cuenta medidas de protección adecuadas en todo el ciclo del sistema», asegura.