ChatGPT cambia de personalidad

Tamara Montero
Tamara Montero SANTIAGO / LA VOZ

RED

iStock

Es extrovertido y estable emocionalmente, características positivas para interaccionar con personas, pero también reproduce estereotipos culturales

27 jun 2025 . Actualizado a las 05:00 h.

«Queríamos estudiar si podíamos evaluar la personalidad de los modelos de lenguaje como ChatGPT a través de los mismos cuestionarios que se utilizan para evaluar a los humanos». Y sí, se puede. Lo ha demostrado un grupo de investigadores de la Universitat Oberta de Catalunya (UOC), que han concluido que ChatGPT muestra características positivas para interactuar con personas (es extrovertido y estable emocionalmente) pero también que reproduce estereotipos culturales.

Si a ChatGPT se le interpela en portugués de Brasil, tenderá a ser más extrovertido que si la conversación se produce en otro idioma, como inglés. Lo explica Rubén Nieto, uno de los investigadores del grupo eHealth-TransLab Research Group (eHealth Lab) y catedrático de los Estudios de Psicología y Ciencias de la Educación de la UOC.

El equipo utilizó el cuestionario EPQR-A (Cuestionario de personalidad de Eysenck - Revisado), usado habitualmente en psicología y que mide cuatro áreas: extraversión, neuroticismo, psicoticismo y predisposición a mentir. Se ordenó a ChatGPT (versión GPT-4o) completar el cuestionario en seis idiomas distintos: inglés, hebreo, portugués brasileño, eslovaco, español y turco.

 «Hay estereotipos que se corresponden con las investigaciones que existen y que tenemos en la sociedad», como que las personas de origen brasileño son muy extrovertidas. Se confirma el estereotipo y resultados de investigaciones que comparan personalidades de gente de diferentes orígenes. Eso viene a avalar también que ChatGPT está programado usando información de este tipo. 

¿Cómo reproduce la personalidad española? «A los españoles los ve en general como sociables, no tanto como a los brasileños», explica Rubén Nieto. La inteligencia artificial cumple así con esa visión de que los españoles son más sociables que los ingleses, por ejemplo. También los reproduce como relativamente estables emocionalmente y, en cuanto a la adhesión a decisiones y normas sociales, la española sería «bastante similar a otras poblaciones».

Los estereotipos que reproduce ChatGPT son, en términos generales, reales. Está demostrado que la extraversión de los brasileños es real, hay artículos que lo respaldan. Y el grupo de investigación de la UOC también realizó un experimento de conversación en inglés pero imaginando que eran de diferentes países anglosajones, como Estados Unidos, Canadá, Inglaterra, Irlanda y Australia. «También surgieron estereotipos acordes a los que existe», afirma Rubén Nieto.

Por ejemplo, se ha visto que reproduce a los ingleses del Reino Unido como más reservados que los de Estados Unidos, que tienden a ser más extrovertidos, y que la personalidad británica era más inestable emocionalmente que la canadiense. 

Solo ha habido un resultado que no se corresponde del todo con la literatura científica disponible, y es que la personalidad turca «la ve más estable emocionalmente y la literatura dice que los niveles de inestabilidad emociona serían más elevador en Turquía que en los otros países». Nieto atribuye esta desviación a que la información con la que se ha entrenado a ChatGPT seguramente sea menor en comparación con otras culturas, como puede ser la información disponible en inglés. 

ChatGPT responde así al fenómeno del cultural frame switching, por el que las personas tienden a alinear con el contexto cultural del idioma en el que se esté interactuando. Por ejemplo, si una persona española habla inglés, español y gallego y se le pide responder a un cuestionario en inglés tenderá a situarse en el contexto cultural anglosajón y, por ejemplo, si se sitúa en el Reino Unido «seguramente tendría que contestar de forma más introvertida a lo que en realidad sería su personalidad».

Esa adecuación funciona tanto con personas que son bilingües desde el nacimiento como con aquellas que aprenden otro idioma más adelante en su vida. «Lo importante para el fenómeno es que te sitúas en el contexto cultural de esa lengua para responder». Podría ocurrir, explica Rubén Nieto, que se hagan adaptaciones si una persona de España contesta en español mexicano, haría una adaptación de la personalidad al lenguaje mexicano.

Las diferencias, en cualquier caso, no son abismales. «Si por ejemplo tengo una puntuación de extroversión de 8 en una escala de 10, quizá me baje a 6», aclara el investigador de la UOC. No se pasa al polo opuesto, pero sí se regulan las respuesta en función del contexto cultural en el que se sitúa la persona para contestar a la tarea. 

Usar cuestionarios de personalidad en modelos de inteligencia artificial es útil para evaluar si esos sistemas están bien construidos para la interacción con humanos, con rasgos adecuados como ser extrovertido, estable emocionalmente y que se adhiere a las normas sociales. «Si hubiésemos encontrado que es inestable y no se comporta según las normas sociales quizá podría ser peligroso para interacción con humanos», por ejemplo haciendo que esa interacción fuese desagradable.

Este tipo de evaluación aplicada a la IA también puede ser útil para la el desarrollo de nuevas herramientas de evaluación. «Podríamos probar cuestionarios y después ir refinándolos hasta administrarlos a personas reales», explica Nieto.

Otra de las líneas de investigación interesantes es la creación de muestras de poblaciones virtuales. ChatGPT puede crear una muestra de mil personas diferentes con un rango de edad, por ejemplo, de 18 a 65 años y que esa población virtual conteste un cuestionario emulando a cada una de esas mil personas. 

«En investigación nos resulta muy útil, porque nos permite comprobar hipótesis con personas sintéticas y refinarlas antes de pasar a estudios con población real, que son más costosos a nivel de presupuesto y de tiempo», explica Nieto. 

Se trata de una línea de investigación todavía incipiente, porque se está comprobando que ChatGPT introduce algunos sesgos. Al estar programado sobre todo con datos occidentales, los grupos minoritarios probablemente estén peor representados que aquellos para los que cuenta con más información. 

«Por ejemplo, le hemos pedido en un experimento que cree personas y lo hace bien si son hombres o mujeres, pero si son no binarias no los crea tan bien porque es una población de la que tiene menos información» y lo mismo ocurre con algunas etnias u otras clasificaciones de grupos de las que no tiene tanta información. 

Los cuatro autores de la investigación —Jacopo Amidei, Gregorio Ferreira y Andreas Kaltenbrunner, investigadores del grupo AID4So, y Rubén Nieto, del eHealth Lab — muestran su preocupación por que los resultados indican que ChatGPT «recurre a estereotipos culturales cuando se le pide simular a una persona de un país concreto, y estos sesgos podrían ser amplificados en traducciones automáticas o en tareas de generación de texto multilingüe».

Para evitar esta situación, el equipo propone poner en marcha acciones como la incorporación de evaluaciones humanas en el proceso de traducción, y también utilizar más de un sistema de traducción y comparar los resultados y desarrollar modelos más conscientes del contexto cultural y social, no solo del lenguaje.

Antoni Oliver, experto en traducción automática y profesor de los Estudios de Artes y Humanidades de la UOC, diferencia entre los NMT, modelos de traducción neuronal —es decirlo los traductores automáticos, sistemas entrenados solo para traducir— y los grandes modelos de lenguaje (large language models o LLM), que pueden hacer otras funciones además de traducir, como por ejemplo ChatGPT y Copilot, la herramienta de inteligencia artificial desarrollada por la compañía Microsoft.

«Hay centenares de grandes modelos de lenguaje, y el grado de multilingüismo de cada modelo es diferente. Cuantos más idiomas se hayan utilizado para entrenar el modelo, más capacidad tendrá este para traducir. De todos modos, parece que los NMT tienen más precisión, mientras que los LLM, al trabajar en contextos más grandes, pueden reproducir más estereotipos», explica el investigador de la Universitat Oberta de Catalunya (UOC).