Depresión, ansiedad, suicidio en adolescentes... ¿Qué puede hacer la Inteligencia Artificial por la salud mental?

R. Cordobés REDACCIÓN

RED

Ismael Herrero | EFE

La «start-up» Aimentia desarrolla terapias con IA para tratar diversos trastornos y fobias, así como para apoyar a los centros educativos y empresas con herramientas preventivas

17 mar 2023 . Actualizado a las 09:05 h.

Hace menos de un mes, Alana y Leila, dos gemelas de 12 años, se lanzaron al vacío desde el balcón de su casa en Sallent. Esa misma semana, Pol, un menor de 15 años, se tiró desde un cuarto piso en Tarragona. Son solo dos de los últimos casos de intento de suicidio en adolescentes que, por desgracia, han llenado las páginas de actualidad de los medios de comunicación. Y no es para menos. Uno de cada tres jóvenes ha pensado en suicidarse o lo ha intentado, según el estudio El estado de la salud mental en España, elaborado por Fundación Mutua Madrileña y la Confederación Salud Mental. Se trata de una generación que sufrió las peores consecuencias de la pandemia en una edad complicada y que ha encontrado en las pantallas una vía de escape que, en realidad, funciona como arma de doble filo. Pero, ¿y si la solución se encontrase en la tecnología? La start-up Aimentia desarrolla terapias con IA para la ansiedad, la depresión, las fobias, los trastornos bipolares o las ideaciones suicidas. Entonces, ¿qué puede hacer la Inteligencia Artificial por la salud mental?

 Aimentia Health es un espacio en la nube que facilita herramientas y servicios de emergencia en salud mental para todo tipo de usuarios, tanto pacientes como profesionales. La plataforma permite disponer de una tecnología de reconocimiento rápido de casos en crisis, con la personalización del diagnóstico y el seguimiento de terapias a pacientes con ansiedad, depresión, fobias, trastornos bipolares o tendencias suicidas.

Las herramientas de las que dispone abarcan desde los chatbots hasta consejos de relajación para casos de crisis, explica el CEO de Aimentia, Edgar Jorba. «En función de la patología que tenga el paciente, la plataforma y el profesional activan unos elementos y unos módulos para poder hacer el seguimiento y tener esas herramientas 24/7», matiza.

«Hay elementos de telemedicina, que facilitan las videollamadas o chats entre profesional y paciente, y hay herramientas clínicas, que es donde damos el valor», continúa Edgar Jerbo, que explica que la plataforma cubre todas las fases de una terapia psicológica. Incluye la parte preventiva, con recursos como vídeos; de prediagnóstico, como los chatbots; de diagnóstico y seguimiento, «donde el profesional puede habilitar distintas actividades, juegos o herramientas dependiendo del tipo de paciente que acceda a la plataforma»; y un sistema de alertas o recaídas. «En todos estos elementos lo que se conecta es la Inteligencia Artificial, que nos permite es personalizar mucho más atendiendo a qué tipo de persona está accediendo a la plataforma», resume el CEO.

¿Cómo funciona esta IA?

A través de la información introducida tanto por el paciente como por el terapeuta, la IA es capaz de identificar el perfil psicológico del usuario que está accediendo y cómo esta actuando con la plataforma. «El profesional recibe los peligros que puede tener esta persona, si es vulnerable, si es un perfil de riesgo, qué tipo de sistematología está padeciendo y qué puede significar… Al final es una asistencia para el profesional, para que pueda evitar el error diagnóstico», explica el fundador de Aimentia, que pone los datos sobre la mesa. «Actualmente en consulta tradicional tenemos más de 50 % de error diagnóstico. Es como ir al médico y tirar una moneda al aire. Con los datos, lo que conseguimos justamente es intentar reducir este mal número».

«Lo que busca la IA es unificarlo todo. Le das mucho más datos, por distintas fuentes, que en una consulta. Por ejemplo, cuando estuvimos confinados en casa, en los pacientes que teníamos con ansiedad y depresión, que normalmente tienen unos cuadros clínicos bastante estables con síntomas que se mantienen en el tiempo, empezaron a aparecer nuevos síntomas derivados del contexto social. Esta es una consecuencia que no aparecerá en los manuales hasta dentro de unos años, pero nosotros con la IA pudimos reconocer este patrón que estaba sucediendo en España y ponerlo en el flujo de datos para que los profesionales supiesen que podía empezar a aparecer este tipo de sistematología ligado al contexto social», ejemplifica. «Esta agilidad y versatilidad lo que nos permite es ser mucho más reactivos y reales al contexto social del territorio», añade Jerbo, que también señala que la cultura y la situación económica de los pacientes son factores a tener en cuenta.

Además de en la fase diagnóstica, destaca las funcionalidades de la Inteligencia Artificial para hacer un seguimiento a los pacientes. «No es lo mismo pasar el típico cuestionario de 400 preguntas a todo el mundo que hacer un cuestionario que se ha personalizado a partir de la IA para hacer las preguntas más adecuadas, de la forma más cercana, atendiendo al qué tipo de perfil patológico tiene la persona que está accediendo», defiende. Y es que su objetivo, además de evitar el error diagnóstico, es reducir el abandono terapéutico.

«Tenemos un 46 % de abandono terapéutico, según el INE y la OMS», alerta. Una tendencia que relaciona con el hecho de que, en salud mental, los procesos son más largos y pueden ser fluctuantes. Algo que genera inseguridades en los pacientes y que depende, en gran medida, de lo tan fuerte que sea la alianza que forman con los profesionales. «El hecho de que la plataforma te vaya acompañando y, de forma automática, explicando qué está pasando o como avanza la terapia, sumado a que el médico tiene más información para actuar de forma más efectiva, ayuda a que esta persona se sienta acompañada, que tenga más seguridad y confianza en lo que está sucediendo. Algo que ayuda a reducir el abandono de terapia», argumenta. «Tienes la ayuda en el bolsillo en cualquier momento».

«Cada tipo de patología tiene unos módulos y una herramientas indicados, que intentan acompañar al paciente, mitigar los riesgos que puedan existir en ese perfil patológico y, en caso de que sea un episodio como una ataque de pánico, que tengan herramientas para poder lidiar esa situación sin tener que depender directamente del médico, que a veces no está o no puede atender. Es una forma para que la persona pueda solventar la situación y luego comentarlo con su médico», continúa Jerbo, que advierte: «En ningún caso es un sustitutivo. Es un ayudante para el médico y un acompañante para el paciente».

 «Pode ser un screaming rápido que axude a marcar as sinais de alarma, pero o coidado ten que pasar polo trato humano, accesible, próximo e real»

 La vicepresidente del Colexio de Psicoloxía de Galicia, María del Carmen González Hermo, se muestra algo reacia al uso de la tecnología. Al menos, hasta que haya los estudios suficientes para comprobar sus consecuencias. Y es que esta profesional de la salud mental cree que el factor humano es imprescindible y, aunque Aimentia sirve como herramienta de acompañamiento, teme que pueda llegar a sustituir el trato personal. «Pode ser un screaming rápido que axude a marcar as sinais de alarma, pero o coidado ten que pasar polo trato humano, accesible, próximo e real. O coidado ten que ser humano», expone.

María del Carmen González explica que, tanto en el momento en que el paciente debe identificar que tiene un problema, como en el que decide pedir ayuda, son «as persoas que nos queren as que ven que estamos sufrindo máis da conta». Lo mismo sucede con los episodios de crisis. «A crise por definición é un momento no que a vontade se nubla e o corpo reacciona de maneira involuntaria. Pode ser con asiedade, alteracións de conduta, autoagresións… Me xurde a dúbida se no momento da crise podería pedir axuda. Para actuar nas crises fai falta un pouco de prevención e fai falta que o entorno coide e apoie. Creo que hai unha parte de prevención, outra de actuación e outra de recollida, de permitirme permanecer nun lugar seguro para que o corpo e as emocións se recuperen. Nesa parte fai falta o apoio social real. Sabemos que as relacións sociais de calidade e a xestión emocional son factores protectores de sufrir alteracións emocionais ou mentais. Tamén dubido de se unha máquina ou unha aplicación nos poden dar ese factor de protección».

En cuanto a su uso como complemento a la atención presencial, algo así como un ayudante del psicólogo que acompaña al paciente entre sesión y sesión, hace una serie de matices. Cree que sería funcional en caso de que la IA fuese capaz no solo de mostrar sus resultados al usuario, sino que también debería «darlle unha explicación ou redefinir ese resultado, buscarlle a funcionalidade na conduta do paciente».

Con la saturación de la atención primaria y la falta de profesionales de la salud mental en el sistema sanitario público como temas candentes, la posibilidad de introducir una plataforma como Aimentia para suplir estas deficiencias parecen no convencer a la presidente del Colexío de Psicoloxía, que teme que la IA se utilice como parche, en lugar de solventar las carencias del sistema sanitario. «Non teño moita fe nas tecnoloxías. Creo que fan falla e nos poden axudar moito, pero dame medo a mercantilización da saúde. Creo que ten que estar detrás sempre a humanidade e a afectividade. O apoio social é o que nos protexe e vai desde os profesores ata as administracións», explica.

«Creo que coa pandemia nos acostumamos a dixitalizar todo, pero non coñecemos o resultado desta dixitalización, desta perda de contacto social. Normalizamos o trato dixital e estamos suplindo o humano. Seguir por ahí non é a solución. A dixitalización absoluta ailla ás persoas», argumenta. Está acostumbrada a tratar con adolescentes y advierte que «moitos do problemas dos trastornos emocionais veñen da sensación de soidade, da sensación de non ter sitio no mundo...».

Su uso en centros educativos

Además de un uso puramente clínico, la IA desarrollada por la start up Aimentia se centra en su utilidad en empresas y centros educativos. La labor de prevención en colegios es, de hecho, una de sus prioridades, explica su CEO. «No nos centramos tanto en la parte de intervención o clínica, sino en la parte educacional o preventiva. Intentamos empezar a hablar de salud mental en los colegios, fomentando talleres, formando a los docentes para que puedan reconocer de forma rápida estos casos de riesgo… y añadimos la tecnología como un facilitador para hacer un control más exhaustivo y evitar que haya un accidente en el futuro», expone Edgar Jorba, que lamente que su actividad en estos espacios haya crecido este ultimo año debido al aumento de casos de intención suicida, autolesiones o trastornos alimentarios. Una situación que obligó a la Consellería de Educación a reforzar el protocolo antisuicidio.

«Aquí lo que se buscan son factores de riesgo. Mediante un chatbot, por ejemplo, se identifican qué perfiles pueden estar en peligro. Cuando hay una mínima probabilidad se activa el protocolo para que se actúe desde la escuela y así tratar de entender qué está sucediendo, si puede ser algo grave y hacer una derivación pertinente. Ahí lo que hace la IA es hacer esa comparación anónima con perfiles que tenemos, con otras tendencias que reconocemos y los patrones que existen, y, lo más importante, a partir del contexto que tienen esas personas y que exponen en estas herramientas, intentar vincular estos datos para reconocer qué patrones o que peligros puede tener ese niño», explica.

La vicepresidenta del Colexio de Psicoloxía de Galicia matiza que para que esta herramienta sea funcional es necesario que se refuerce el número de profesionales. «Unha vez que se detecta, quen atende? Se non hai profesionais da saúde cerca da poboación… quen da solución?», defiende. «As relacións sociais de calidade son un factor protector e conséguense a base de interactuar socialmente. Os profesionais da saúde mental e da intervención social acompáñannos neses momentos de dificultade, afinando esas ferramentas de interacción», continúa González.

Esta profesional ha hecho terapias de prevención del suicidio con adolescentes. Aunque cree que el hecho de que la plataforma sea tecnológica puede facilitar su uso en esta franja de edad, advierte que uno de los mayores problemas que se encuentra es que no saben definir cómo están, cómo se encuentran. «É importante saber como estamos e poñer nome ao que estamos sentindo. Se non aprendemos a poñerlle nome ao que estamos sentindo non podemos saber o que necesitamos. Se non sabemos o que necesitamos non podemos ir a collelo. Se non podo coller o que necesito, probablemente teña alteracións ou psicolóxicas dalgún tipo. Hai un vacío no que o corpa, a mente e o corazón se resinten», concluye.

Y es que, en realidad, como señalan desde Aimentia, para que esa estructura tecnológica sea de utilidad para los jóvenes y adolescentes, «lo más importante es que se les hable de salud mental, que se rompa el estigma, que sepan que no pasa nada si necesitan ayuda, y generar factores protectores, ya sea en casa o entre amigos. Eso ayuda mucho más que la tecnología».

Las personas con conductas suicidas y sus allegados pueden recibir ayuda las 24 horas llamando al 112, al Teléfono de la Esperanza (717 00 37 17) o al número de atención a la conducta suicida 024