¿Qué hace ChatGPT con las preguntas de los usuarios?

Olga Suárez Chamorro
Olga Suárez REDACCIÓN

RED

Un usuario de la herramienta ChatGPT
Un usuario de la herramienta ChatGPT Europa Press

La privacidad se ha convertido en una de las principales preocupaciones para los usuarios de herramientas de IA generativa

19 may 2025 . Actualizado a las 16:48 h.

La utilización de los buscadores de inteligencia artificial como ChatGPT a nivel de usuario es aún incipiente y, más allá del uso que puedan estar dándole estudiantes para realizar trabajos de clase, muchos internautas lo que hacen con esta herramienta es probar. Lo que cada vez está más claro es que la IA generativa ha irrumpido con fuerza durante los últimos años hasta redibujar la relación que los usuarios tienen con internet.

Porque la llegada de internet supuso una transformación sin precedentes, permitió el acceso y la democratización de la información y el conocimiento; y multiplicó las oportunidades en muchos ámbitos, como la educación o la sanidad. Pero la irrupción de la inteligencia artificial ha alterado las reglas de juego, porque potencia muchas de esas oportunidades al tiempo que lo hace también con muchos de los riesgos asociados a la red, tales como el acoso, la desinformación o la ciberdelincuencia). Precisamente, el manifiesto que han elaborado instituciones, organizaciones sociales y empresas españolas con motivo de la celebración el pasado sábado del Día de Internet apuesta por «una nueva generación de internet comprometida con las personas», en el que se recoge un decálogo de principios para que la red esté al servicio de los usuarios y las nuevas tecnologías no sean percibidas como una amenaza.

Los usuarios preguntamos constantemente a la IA cualquier duda que nos surge, pero ¿qué hace esta tecnología generativa con la información que le damos?. Ante la pregunta de si es público lo que le preguntas a ChatGPT, la propia herramienta de OpenAI responde lo siguiente: «No, lo que le preguntas a ChatGPT no es público. Tus conversaciones no se publican ni están disponibles para que otras personas las vean. Sin embargo, es importante tener en cuenta lo siguiente…». Y añade información sobre privacidad de los datos, el modo de entrenamiento de la herramienta y el modo de navegación privada, para terminar con la siguiente afirmación: «En resumen: no es público, pero puede ser usado internamente a menos que lo desactives».

¿Y qué hacen estas herramientas con la información que les proporcionan los usuarios? «Depende de cada proveedor y de su configuración», apunta José Alberto Benavides Martínez, director de Crecimiento y Negocios de la consultora tecnológica de FiT, la consultora tecnológica de t2ó ONE. Y explica que en el caso de ChatGPT, algunas conversaciones de las versiones gratuitas o con historial de chat activado, «pueden ser revisadas por humanos para mejorar el modelo, de forma anonimizada». Este experto subraya que, sin embargo, en las versiones de pago, como ChatGPT Enterprise, los usuarios tienen la posibilidad de desactivar el uso de sus datos para entrenamiento. Además, añade que los modelos no tienen memoria por defecto y no recuerdan conversaciones pasadas, a menos que el usuario habilite esa función explícitamente. Por tanto, su respuesta coincide con la que aporta el propio buscador basado en IA, aunque recomienda «no compartir información confidencial, como datos bancarios, médicos o credenciales personales, salvo que sea estrictamente necesario y se esté utilizando una versión segura», para evitar que esa información sensible pueda estar accesible para equipos de revisión en contextos controlados.

En cualquier caso, Benavides destaca que en Europa, el Reglamento General de Protección de Datos (RGPD) «protege cualquier dato personal que los usuarios compartan con estas herramientas», como nombres, correos electrónicos o identificadores. Esto aplica a todas las empresas que operen en la Unión Europea o traten datos de ciudadanos europeos. Además, desde el pasado año, la nueva Ley de Inteligencia Artificial establece obligaciones adicionales para los proveedores de IA, como transparencia, trazabilidad y control humano en determinados usos. Fuera de Europa, también existen normativas similares, como la CCPA en California, que buscan garantizar un tratamiento adecuado y seguro de la información personal.

Ventajas de la versión de pago

Los usuarios que cuentan con una versión prémium de estas herramientas cuentan con un mayor grado de protección. ChatGPT Team o Enterprise permiten desactivar el uso de los datos para entrenamiento de modelos, y en el caso de las versiones empresariales, se incluyen medidas adicionales como el cifrado reforzado, entornos de uso aislados y acuerdos específicos de protección de datos. «Estas versiones están pensadas para usuarios que manejan información crítica, como empresas del sector salud, legal o financiero», explica el experto de FiT.

Pero cuentas de pago aparte, existen también buenas prácticas que los usuarios pueden seguir antes de arrepentirse de compartir una información privada. Lo primero es evitar compartir datos sensibles, como información médica, contraseñas o documentos privados; por otro lado, se deben desactivar el historial de chats, si la herramienta lo permite. «Y algo que casi nadie hace pero es recomendable, es leer la política de privacidad antes de usar la herramienta, para entender qué datos se recogen y cómo se utilizan», añade Benavides. Por último, hace referencia a fortalecer la seguridad del acceso, usando contraseñas robustas, conexiones seguras (VPN) y dispositivos conocidos.

¿Y quién debe responder ante estos datos? La empresa que ofrece la herramienta es la principal responsable del tratamiento de los datos, en el caso de ChatGPT es OpenAI. Esta organización debe garantizar el cumplimiento de las leyes de protección de datos aplicables, informar claramente al usuario sobre el uso de su información y permitir el ejercicio de sus derechos (acceso, rectificación o supresión). En entornos empresariales, puede haber corresponsables del tratamiento (por ejemplo, una empresa que integra ChatGPT en sus procesos internos) o encargados del tratamiento, en función de los acuerdos contractuales. 

Lo que está claro en el sector tecnológico es que la sociedad es cada vez más consciente de los riesgos que corre si no se protege ante robos cibernéticos de la misma manera que lo haría ante un ladrón físico. «La privacidad se ha convertido en una de las principales preocupaciones para los usuarios de herramientas como ChatGPT, Grok o DeepSeek; «la percepción de riesgo se ha intensificado con algunos casos de filtraciones, y la gente está mucho más atenta desde la entrada en vigor de leyes como el RGPD o la AI Act», opina Benavides, que cree que los usuarios demandan transparencia, control y garantías reales. «La confianza ya no se gana solo con funcionalidades, sino también con una política de privacidad clara y responsable».