Alertan que meter datos personales en ChatGPT es «perder el control sobre ellos»

La Voz MADRID / EUROPA PRESS

SOCIEDAD

Este tipo de asistentes pueden registrar dicha información para seguir entrenando la inteligencia artificial

29 nov 2023 . Actualizado a las 05:00 h.

Expertos en ciberseguridad han advertido a los usuarios de que al introducir información y datos personales en asistentes de Inteligencia Artificial (IA) generativa como ChatGPT, estos quedan registrado y puede ser reutilizada para continuar entrenando la aplicación, por lo que implica «perder el control sobre ellos» y enfrentarse a consecuencias de privacidad.

Actualmente, existen diversas tecnologías de IA generativa que los usuarios utilizan de forma habitual para llevar a cabo distintas tareas, tanto en el entorno personal como en el laboral. Por ejemplo, permite realizar una búsqueda precisa de información, redactar textos en distintos formatos, traducir relatos a diversos idioma, comparar productos y realizar recomendaciones.

Algunas de las herramientas más conocidas en este sector son los asistentes conversacionales ChatGPT, desarrollado por OpenAI, que ha alcanzado más de 100 millones de usuarios semanales activos en menos de un año, y Bard, por parte de Google.

En este sentido, los expertos de la compañía de ciberseguridad Secure&IT han advertido sobre las posibles consecuencias de introducir información y datos personales en las interacciones con este tipo de asistentes, que pueden registrar dichos datos para continuar entrenando la IA y, por tanto, perder el control de sobre la información personal.

Así, tal y como ha explicado la consultora legal TIC de Secure&IT, Natalia Patiño, en un comunicado, para poder utilizar correctamente ChatGPT se ha de tener en cuenta que se trata de una herramienta que «facilita o complementa» la labor humana, pero que, sin embargo, «no la sustituye».

En este marco, ha puntualizado que «no se trata de una herramienta infalible» y que, de cara a evitar riesgos, «su uso debería verificarse siempre». Asimismo, también ha hecho hincapié en que no se trata de una tecnología capaz de razonar, sino que sus respuestas están vinculadas a los datos con los que ha sido entrenada previamente.

Aprendizaje por transferencia

Con todo ello, desde Secure&IT han explicado que ChatGPT funciona utilizando una técnica de aprendizaje a la que se refieren como «aprendizaje por transferencia». Esto es, un entrenamiento basado en un conjunto de datos a gran escala que, a su vez, utiliza los resultados para continuar entrenando al modelo de aprendizaje.

De esta forma, a la hora de interactuar con el 'chatbot', el usuario introduce una petición y, tras ello, el modelo ajusta su respuesta en función de lo solicitado por el usuario y los datos contextuales que haya aportado. Gracias a este sistema, el asistente es capaz de generar respuestas cada vez más precisas y que se asemejan a cómo respondería un humano.

Sin embargo, los expertos han subrayado que, en el proceso detallado, las herramientas de IA utilizan «todos los datos que los usuarios introducen» y, además, dichos datos quedan registrados y pueden ser reutilizados. Por ello, se ha de pensar en qué información se está compartiendo con el 'chatbot', y si dichos datos son personales.

Según Patiño, «la introducción de datos personales y, en general, de información confidencial, implica perder el control sobre esos datos e informaciones». Así, en cuanto a datos personales, se ha referido a toda información relacionada con una persona física «identificada o identificable».

Asimismo, tal y como ha aconsejado, los usuarios deben evitar introducir datos directamente identificables, así como los datos que «de forma indirecta puedan llevar a la identificación». «Es muy importante no incluir este tipo de información en las consultas, sobre todo, teniendo en cuenta que actualmente los chats basados en IA son, en general, muy opacos», ha matizado Patiño.

Calidad de las respuestas y sesgos

Desde Secure&IT, también han señalado que la calidad de la respuesta del asistente viene determinada por la calidad del «promt» que introduzca el usuario, es decir, cómo se solicita la acción requerida y qué contexto se ha compartido. Por ello, una entrada adecuada debe ser «clara» e incluir palabras clave que ayuden a la IA a construir la respuesta más adecuada.

No obstante, los expertos en ciberseguridad han recalcado que, aún con todo ello, se pueden generar respuestas incorrectas o incompletas. Incluso, se pueden recibir respuestas con «alucinaciones», ya que el 'chatbot' puede ofrecer información aparentemente lógica y convincente pero, en realidad, que sea falsa o inventada.

Otro de los factores a tener en cuenta a la hora de utilizar herramientas de IA como ChatGPT son los distintos tipos de sesgos que pueden esconder las respuestas. Un ejemplo es el sesgo de retroalimentación, que es aquel que se produce cuando, al utilizar la retroalimentación de los usuarios para entrenarse, los sistemas de IA «perpetúan los perjuicios y estereotipos existentes».

Según Patiño, un caso de sesgo de retroalimentación es la discriminación por edad y por género en entornos laborales, ya que ChatGPT puede continuar frenando la contratación de personas mayores de 45 años o señalar solo perfiles de hombres para puestos directivos «si el modelo de IA para la selección de candidatos aprende información previa ya sesgada».

Frente a todo ello, la Unión Europea ya está trabajando para regular el uso de la IA. De hecho, tal y como han recordado desde Secure&IT, Europa ya está en «las etapas finales» de la aprobación del Reglamento sobre la IA. Este reglamento se basa en una serie de normas jurídicas para abordar aspectos técnicos, cuestiones éticas y otros desafíos de aplicación que plantea la IA en múltiples sectores.