Dos informáticos prueban lo fácil que es estafar con la voz falsa del jefe recreada con IA

e. v. pita VIGO / LA VOZ

VIGO

Cedida

El vigués Antonio Fernandes charló en el congreso de ciberseguridad RootedCon en Madrid usando la voz robada de un prestigioso director general del sector informático

12 mar 2024 . Actualizado a las 00:38 h.

Suena el teléfono de un contable y este reconoce la voz de su jefe, el CEO de la empresa, que le apremia para que ingrese urgentemente 60.000 euros en una cuenta porque tiene que cerrar una operación comercial en menos de diez minutos. Diligente, el empleado cursa las órdenes sin sospechar que al otro lado del teléfono se oculta una máquina que, apoyada en una aplicación de inteligencia artificial, reproduce la voz de su jefe. Habla y responde cómo él y el contable no desconfía. Ha picado en una nueva versión de la estafa del CEO pero, en vez de enviar las órdenes por correo electrónico, los delincuentes hicieron una llamada con la voz robada al director general. Este tipo de estafas todavía no proliferan pero no tardarán. No hay que olvidar que la comisaría de Vigo registró en los primeros nueve meses del 2023 un total de 1.992 denuncias de ciberestafas, la cuarta parte de todos los delitos conocidos en la ciudad.

Los jáquers éticos vigueses y expertos en ciberseguridad de la inteligencia artificial, Antonio Fernandes y Daniel Fernández, quisieron probar que este tipo de estafas cibernéticas ya se pueden efectuar y son muy fáciles de hacer desde casa. Eligieron como escenario el congreso RootedCon, celebrado la pasada semana en la Ciudad de la Imagen de Madrid. Se trata del evento de seguridad y tecnología que cuenta con mayor número de asistentes en España.

Ambos investigadores vigueses hicieron un simulacro en su ponencia titulada Carlos Latre in the box. Al igual que el famoso imitador de televisión, Antonio Fernandes impartió su discurso con la voz robada a otra persona. En tiempo real, una máquina reemplazaba su habla por la de un reconocido CEO del sector de la ciberseguridad, recreada mediante IA, que fue la que escuchó el auditorio. Luego, le pasó el micrófono al público para que hablasen ellos con la voz simulada del directivo.

«Explicamos lo fácil que es robar la voz a un director general. Esto se puede hacer desde tu casa con un ordenador portátil de tipo gamer que tenga una buena tarjeta gráfica y que cueste unos 1.400 euros. La máquina habla en tiempo real y te cambia la voz, esto es un paso más allá en el mundo de las estafas. Hay software libre y gratuito que puedes usar», afirma el experto informático.

«Yo hablaba en el micrófono mientras en tiempo real sonaba la voz de otra persona. El ordenador entendía lo que yo decía pero ponía la voz del otro. Esto muestra lo fácil que es engañar, puedo darle instrucciones a la aplicación de la IA para que apremie o dé prisa o que use un sesgo de autoridad que haga la conversación más creíble. Carlos Latre era un gran imitador de voces pero ahora, con la IA, cualquiera puede imitar cualquier voz de forma exacta», dice Fernandes.

Tanto él como Daniel Fernández alertan del siniestro panorama que se abre para el cibercrimen gracias a la IA generativa, la misma que usan los estudiantes para hacer trampa con sus trabajos de clase. «Ahora le puedes pedir a una IA generativa que te escriba en perfecto español un mensaje de phising de tu banco que antes iba repleto de erratas y faltas de ortografía, lo que le restaba credibilidad», afirma Fernandes. «La IA cada vez hace algo nuevo y los malos tienen mucha pasta para invertir, pero ahora es que cualquiera lo puede hacer desde su casa. Te lo escribe en cualquier idioma, en el que quieras imitar, se abre un sin fin de posibilidades de engañar a la gente», dice.

Fernandes recordó el reciente timo de 24 millones de euros a una empresa del Reino Unido. Los ciberdelincuentes enviaron un vídeo grabado suplantando a un gerente, con su voz copiada, y el personal se lo creyó e hicieron la transferencia millonaria.

«Lo que nosotros estamos trabajando es en crear herramientas para saber cómo detectar estas estafas con imitaciones de voz, no siempre basta el sentido común y las buenas prácticas como llamar de vuelta al CEO. Para saber defenderse de un ciberdelincuente hay que saber cómo ataca», indica este jáquer ético.

Sobre la inminente aprobación de la ley de IA: «Regular está bien pero los malos van delante»

Este jáquer vigués explica que la voz personal se ha convertido en un preciado bien privado que está totalmente expuesto en las redes sociales. «Cualquiera puede buscar un par de postcads de alguien famoso y entrenarlo para que reproduzca un mensaje falso con muy poco metraje de audio. Se puede hacer muy fácil», avisa.

El Parlamento Europeo debatirá estos días la aprobación de la propuesta con enmiendas de la Ley de Inteligencia Artificial (AI Act). Antonio Fernandes admite que «regular está bien pero los malos van a ir por delante». Una cuestión que agradece es que la ley permite a los jáquers éticos y expertos en ciberseguridad hacer test controlados (sandbox). «Esto nos permite enfrentarnos a escenarios que no son legales y que nosotros, los investigadores, podemos recrear en entornos controlados», afirma Fernandes.

Tanto este experto como Daniel Fernández, un nómada digital que retornó a Vigo, se están especializando en inteligencia artificial porque ven que es un campo en continuo crecimiento.

Fernandes lleva más de dos décadas en el mundo de la ciberseguridad. En su biografía profesional cuenta que ha descubierto fallos de seguridad en empresas como Google, Facebook, Twitter o el Departamento de Defensa de Estados Unidos. En su currículo figura la evaluación de proyectos de innovación y ciberseguridad para la Comisión Europea en la European Innovation Council o la European Defense Agency. Además, es miembro del subgrupo de expertos del Artificial Intelligence (AI) Connected Products and Others new Challenges in Product Safety, vinculado al Consumer Safety Network (CSN).