Por qué ChatGPT no puede sustituir a un psicólogo: «Le falta algo básico en una relación terapéutica, el componente humano»

Tamara Montero
Tamara Montero SANTIAGO / LA VOZ

SOCIEDAD

María Pedreda

Los expertos alertan de que usar un «chatbot» como si fuese un terapeuta puede llevar a diagnósticos erróneos y a conductas aún más dañinas para los usuarios

06 abr 2025 . Actualizado a las 09:49 h.

«Tengo ansiedad desde hace tres años y voy al psicólogo, pero hay momentos en que necesito hablar con alguien y ChatGPT se ha convertido en ese alguien al que puedo consultar y contar mis cosas en cualquier momento ¿Alguien más lo hace?». La crisis de salud mental, la falta de profesionales en el sistema público y el coste de la terapia privada son algunos de los factores que llevan cada vez a más personas a hacer lo que describe esta usuaria de Reddit: usar la inteligencia artificial como alguien con quien desahogarse o incluso como terapeuta

En las redes sociales pueden encontrarse listas de prompts que prometen que «ChatGPT puede hacer tu terapia gratis» y, de hecho, dicen quien lo ha usado, «te va guiando y te hace pensar». La gente joven está utilizando cada vez más bots conversacionales que asumen el rol de psicólogo virtual, hasta el punto de que una de estas aplicaciones ha recibido más de 78 millones de mensajes en menos de un año. El dato lo aporta Manuel Armayones, que es catedrático de los Estudios de Psicología y Ciencias de la Educación de la UOC. Su grupo, el Behavioral Design Lab, investiga sobre la relación entre psicología e inteligencia artificial. La cuestión es si la IA puede ejercer como profesional de la salud mental

«Hay un tsunami tecnológico que nos está arrastrando y no nos deja pensar», dice el profesor. La inteligencia artificial no es perjudicial per se, pero sí puede serlo cómo se usa. «Nos preocupa que pueda haber un bum del uso de una manera desaforada» y en la que no prima la evidencia, reconoce el investigador. Porque existen dudas sobre quién está detrás de esos bots conversacionales o qué pasa con los datos especialmente sensibles, porque pertenecen a una esfera muy íntima, de las personas que hacen uso de la IA como terapeuta

«Se trata de una comunicación con una máquina, que si bien tiene un programa y una serie de datos bastante importante, carece de algo básico en una relación humana y más aun terapéutica, que es precisamente el componente humano». Jesica Rodríguez Czaplicki, psicóloga sanitaria y miembro de la comisión de Defensa da Profesión del Colexio Oficial de Psicoloxía de Galicia, alerta de que  la IA puede «cometer grandes errores diagnósticos, dar pautas no correctas y así haber un gran sesgo que puede conducir incluso a que la persona realice conductas aún más dañinas para sí misma», ya que las aplicaciones de IA solo se basan en lo que el usuario escribe, sin tener en cuenta el lenguaje no verbal (el silencio, la postura, el tono, la velocidad...) «que nos da información más allá de las palabras».

Es más, «la propia máquina no va a tener la empatía y el contacto humano necesario y quizás acreciente más aún la sensación de soledad y el individualismo de la sociedad en la que vivimos», y, remarca la portavoz del Colexio Oficial de Psicoloxía, tampoco «habrá un seguimiento adecuado del proceso del consultante, o de las dificultades y carencias que pueda presentar».

Hace unas semanas se hacía público que una inteligencia artificial había recomendado a un usuario que se suicidase. Ese es uno de los efectos perniciosos de sustituir una consulta de un profesional de la salud mental por una serie de prompts. «Este es uno de los peligros que pueden derivarse del empleo de estos medios. Faltan muchos componentes, no hay una regulación adecuada, no hay una supervisión de lo que estas aplicaciones "aconsejan" y el consultante puede llegar a dar por válida cualquier indicación», afirma Rodríguez Czaplicki.

Armayones pone como ejemplo los trastornos de la conducta alimentaria. «La inteligencia artificial generativa sanciona positivamente y te da la razón, porque están diseñadas para que la experiencia de usuario sea agradable. Eso es peligrosísimo», porque puede que la IA refuerce la creencia a una joven de que «mantenerse delgada es un estilo de vida, no un problema. Ningún psicólogo defendería que no comer es un afrontamiento constructivo». 

El investigador de la UOC también alerta de la desinformación. «Si tenemos jóvenes y no tan jóvenes manteniendo conversaciones con una IA, se puede estar transmitiendo desinformación en función de los sesgos» del algoritmo y de con qué información haya sido entrenado. 

En conclusión, no. ChatGPT y la inteligencia artificial no pueden sustituir a un psicólogo, pero sí ofrecer un arsenal de nuevas herramientas para la práctica clínica y para personalizar la atención psicológica. «Se puede utilizar con cuidado y con supervisión, pero no es un psicólogo, no lo va a ser nunca», subraya Armayones.

La inteligencia artificial puede automatizar tareas administrativas y clínicas como la anamnesis de los pacientes, y también funcionar como una herramienta complementaria, servir para enseñar técnicas de relajación, de higiene del sueño, detectar trastornos de manera precoz e incluso ayudar en procesos de duelo o en el tratamiento de fobias a través de realidad virtual. El sistema británico de salud la usa para controlar los síntomas de la depresión, sobre todo de la más leve.  Pero, remarcan ambos expertos, la IA nunca podrá sustituir al profesional. Y, desde luego, cualquier aplicación debe tener base científica y cumplir con el concepto de human in the loop: siempre tiene que haber un profesional supervisando lo que ocurre. 

Es decir, la inteligencia artificial no debe sustituir la labor del psicólogo, sino ampliar sus capacidades y eficacia. Y cada una de las aplicaciones que se utilicen deben ser «basadas en la evidencia y validada científicamente», subraya Manuel Armayones. «En la investigación psicológica la IA puede ser de gran utilidad para nuestra profesión, ya que podrían crearse modelos que imiten la cognición humana y servir como base para el estudio de comportamiento», dice la portavoz del Colexio de Psicoloxía, que también cree que la capacidad de procesar datos de la inteligencia artificial podría servir para apoyar el diseño de planes de intervención. 

La irrupción de la inteligencia artificial llega también en un contexto de escasez estructural de psicólogos, especialmente en el sistema público de salud. «En el sistema público hay un problema endémico» de falta de profesionales de la salud mental, reconoce el investigador de la UOC. Quizá una de las tentaciones del potencial que tiene la IA es usarla indiscriminadamente para cubrir esas carencias.

«A lo mejor podría ser útil en los cribados iniciales para las derivaciones, pero en salud mental hay profesionales que son expertos en el campo y que van a poseer las cualidades humanas que ninguna IA tiene», dice Jesica Rodríguez. «Más que implantar la IA, lo urgente es dotar a nuestro sistema de salud mental del número adecuado de profesionales de psicología y psiquiatría», que puedan dar respuesta a la demanda de cuidados y atención en salud mental de a sociedad.

De hecho, Armayones alerta del peligro de que la implantación indiscriminada de la IA para la atención psicológica abra nuevas brechas: «si en vez de contratar psicólogos metemos inteligencia artificial, y voy a ser cruel, la gente con dinero tendrá acceso a un profesional y los demás solo a una máquina».