¿Matar a una persona para salvar a cinco? Así influye ChatGPT en los juicios morales humanos

La Voz

SOCIEDAD

DADO RUVIC | REUTERS

Un estudio revela cómo las personas se posicionan ante un dilema existencial en función de los textos aleatorios que genera esta inteligencia artificial

06 abr 2023 . Actualizado a las 20:11 h.

Las respuestas humanas a los dilemas morales pueden verse influidas por las afirmaciones, muchas veces contradictorias, escritas por el chatbot de inteligencia artificial ChatGPT. Así lo revela un estudio que planteó a los participantes un problema existencial al tener que elegir, en distintas situaciones extremas, si sacrificaban la vida de una persona para salvar las de otras cinco.

Los resultados, publicados en la revista Scientific Reports, indican que los usuarios pueden subestimar hasta qué punto sus propios juicios morales pueden verse influidos por el bot conversacional. El trabajo, recogido por Efe, está liderado por investigadores de la Universidad de Ciencias Aplicadas de Ingolstadt, Alemania.

Sebastian Krügel y su equipo preguntaron varias veces a ChatGPT-3 (modelo anterior al que se usa actualmente) si era correcto sacrificar la vida de una persona para salvar la de otras cinco.

Comprobaron que esta inteligencia artificial generativa escribió afirmaciones tanto a favor como en contra, lo que indica que no estaba sesgada para defender una determinada postura moral, resume la revista en un comunicado.

A continuación, los autores plantearon el experimento conocido como «dilema del tranvía» a 767 participantes estadounidenses, con una media de edad de 39 años, que se enfrentaron a uno de los dos escenarios previstos.

En uno de ellos se propuso si era correcto cambiar el trayecto de un trolebús fuera de control, desviándolo de una vía en la que mataría a cinco personas hacia otra en la que fallecería una. En el otro escenario se presentó la posibilidad de empujar a un desconocido desde un puente para evitar que el tranvía matara a las cinco personas.

Antes de responder, los participantes leyeron varias declaraciones proporcionadas por ChatGPT en las que se argumentaba a favor o en contra de sacrificar una vida para salvar cinco; las declaraciones se atribuían a un asesor moral o a esta inteligencia artificial.

Después se preguntó a los participantes si la declaración que habían leído influía en sus respuestas.

Los autores constataron que los participantes eran más propensos a considerar aceptable o inaceptable sacrificar una vida para salvar cinco dependiendo de si la declaración leída argumentaba a favor o en contra del sacrificio. Esto era así incluso cuando la afirmación se atribuía a la herramienta de ChatGPT.

Estos resultados sugieren que los participantes pueden haberse visto influidos por las afirmaciones que leyeron, aun cuando se atribuían a una inteligencia artificial que elabora textos de apariencia coherente a base de recopilar miles escritos previos con un resultado aleatorio que no tiene por qué ser necesariamente acertado ni verídico.

Pablo Haya, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Social Business Analytics del Instituto de Ingeniería del Conocimiento (IIC), afirma al respecto: «Las IA como ChatGPT se basan en grandes modelos de lenguaje que capturan relaciones probabilísticas entre las palabras. De esta manera son capaces de ir autocompletando una frase eligiendo aquellas palabras que son plausibles dado el contexto. Uno de los efectos secundarios no deseados es que son muy sensibles a modificaciones en la frase inicial. Por lo tanto, dos frases con significado similar pero que se diferencian ligeramente en la redacción pueden generar dos respuestas opuestas. Esto es un problema importante si ChatGPT se emplea para dar consejos morales, ya que a preguntas similares es fácil que dé opiniones inconsistentes entre sí y argumente a favor y en contra del mismo tema según cómo se le formule la pregunta. Así, a efectos prácticos, la respuesta que dé ChatGPT al consejo moral es, en esencia, al azar».

Los investigadores señalan, además, que los participantes pueden haber subestimado la influencia que las afirmaciones de ChatGPT han tenido en sus propios juicios morales. El 80 % afirmó que sus respuestas no se vieron influidas por las afirmaciones que leyeron, pese a que los resultados demuestran que esto no fue así.

Los autores apuntan que el potencial de los chatbots para influir en los juicios morales humanos pone de relieve la necesidad de la educación para ayudar a los seres humanos a comprender mejor la inteligencia artificial.

En este sentido, proponen que en futuras investigaciones se diseñen chatbots que o bien se nieguen a responder a preguntas que requieran un juicio moral, o bien respondan a estas preguntas proporcionando múltiples argumentos y advertencias.