Usar la IA en el contexto de la salud mental permite, en ocasiones, actuar antes de que el problema se convierta en crisis, algo que la atención tradicional no siempre logra. Pero eso no implica que vayan a sustituir al profesional: más bien se perfila como una herramienta complementaria.
La salud mental es uno de los asuntos que más preocupan hoy en día. Se calcula que cuatro de cada diez personas tendrán un problema de este tipo a lo largo de su vida. De ahí la urgencia de encontrar soluciones validadas por la evidencia científica. Algunas de las soluciones que se barajan tienen que ver con el uso de ChatGPT y otras apps de inteligencia artificial, propuestas que pueden generar curiosidad pero también dudas y desconfianza.
No es nuevo: el desarrollo tecnológico siempre nos ha hecho sentir algo incómodos. Ya a comienzos del siglo XIX, en un pueblo de Inglaterra llamado Leicestershire, Ned Ludd destruyó algunas máquinas textiles. Entre otras razones, argumentaba que lo hacía porque se oponía a los cambios que traía la nueva maquinaria industrial. A partir de ahí nació el término ludita, que describe a personas que rechazan el desarrollo tecnológico.
En el campo de la salud también han existido “momentos luditas”. Por ejemplo, cuando aparecieron los contestadores automáticos o, más recientemente, cuando se comenzó a utilizar la videollamada para atender pacientes. Incluso los propios profesionales se resistían a las videollamadas hasta que la pandemia del covid-19 les obligó a utilizarlas. ¡Y menos mal que contamos con esa opción!
¿Cómo utilizan las personas la IA para cuidar su salud mental?
Actualmente ,el principal uso que se le da a la lA es con fines de acompañamiento, como un “compañero digital” que nos orienta, escucha nuestros pensamientos y angustias, nos aconseja y al que le contamos secretos. Nos lo pone fácil el hecho de que herramientas como ChatGPT estén disponibles en cualquier momento, parezcan empáticas y, por norma, no critiquen ni respondan negativamente.
Quienes utilizan este tipo de IA no suelen preocuparse por la privacidad o la profundidad emocional, pese a que plantea riesgos por el uso de datos personales y por los sesgos con los que se entrenan las herramientas de IA.
No obstante, debemos admitir también que la IA permite identificar señales de malestar antes de que se agraven. Esto se consigue mediante el análisis de los datos de móviles y weareables que informan de patrones de actividad, pasos, sueño, cantidad de mensajes o veces que se mira el móvil. Este tipo de proceso se llama fenotipado digital y ayuda a anticipar recaídas en depresión o episodios en trastornos graves mediante lo que se llama EMA (Ecological Momentary Assessment o Evaluación Ecológica Momentánea).
También se usan modelos de lenguaje para detectar cambios sutiles en el estado emocional de adolescentes y adultos. Por ejemplo, cuando en los mensajes se detecta un aumento de frases del tipo “estoy mal”, o “culpa”, así como en la fluidez verbal o en incoherencias sintácticas. El objetivo es claro: actuar antes de que el problema se convierta en crisis, algo que la atención tradicional no siempre logra.
Asimismo se han publicado estudios iniciales donde chatbots de salud mental se muestran eficaces en reducir síntomas leves de ansiedad y depresión, además de fomentar la reflexión personal y el autocuidado. Su disponibilidad 24/7 los convierte en recursos accesibles y de bajo coste, especialmente útiles en contextos con escasez de servicios profesionales.
La IA se está usando para ampliar terapias como la cognitivo-conductual. Algoritmos inteligentes permiten adaptar ejercicios, monitorizar avances y reforzar aprendizajes. Al mismo tiempo, los modelos de lenguaje abren la puerta a diálogos más naturales y sensibles al contexto. Los resultados de estudios científicos muestran reducciones moderadas en síntomas depresivos, especialmente en jóvenes.
Los terapeutas son más empáticos y flexibles
A pesar de estos avances, los profesionales ofrecen una visión más matizada. Comparaciones entre humanos y chatbots revelan que los terapeutas superan claramente a la IA en dimensiones críticas como la empatía, la flexibilidad y la sintonía emocional. Esto refuerza una idea clave: la IA no sustituirá al profesional, sino que se perfila como una herramienta complementaria.
Por ejemplo, en ansiedad y depresión un bot parece ser efectivo al inicio, pero su efecto desaparece a los tres meses. En paralelo a esta extinción, las personas dejan de utilizarlo, de modo que la adherencia a los apoyos sustentados en IA se ha convertido en uno de los grandes desafíos actuales y futuros a la hora de usar la inteligencia artificial en salud mental.
Las investigaciones también advierten sobre carencias importantes. Un modelo propone imaginarlo como una pirámide con tres pasos. En la base están la seguridad y la privacidad; después, la fiabilidad y la transparencia; y, solo en la cúspide, la eficacia práctica. Sin embargo, la mayor parte de los estudios se concentran en los niveles superiores y dejan en segundo plano cuestiones básicas como la protección de datos o la gestión del sesgo algorítmico. De hecho, un análisis crítico advierte que la falta de supervisión ética y la escasa formación digital de pacientes y profesionales pueden convertir a estas herramientas más en un riesgo que en un apoyo.
La IA ya está diseñada y avanzando. Los profesionales necesitamos prepararnos para este cambio radical en la forma de abordar los problemas de salud mental.
¿Qué podemos esperar del futuro de la IA en salud mental?
La integración de la inteligencia artificial en nuestra vida cotidiana es ya un hecho. Hace apenas tres años, la mayoría de la gente utilizaba un buscador: hoy millones de usuarios formulan directamente sus preguntas a un asistente conversacional. La permeabilidad de nuestras actividades diarias a la IA es tan alta que cuesta imaginar un retroceso. Al igual que hace dos décadas los ordenadores ocupaban media mesa y hoy caben en el bolsillo, probablemente en pocos años miraremos atrás y nos parecerá rudimentario haber usado la IA solo a través de texto para hablar de nuestra salud mental.
En este campo, el proceso ya comenzó, pero las perspectivas son claras. Las revisiones recientes señalan que la IA no solo permitirá monitorizar síntomas en tiempo real a través de dispositivos cotidianos, sino que también contribuirá a diagnósticos más precisos y a una atención personalizada. Con sus limitaciones y riesgos, la IA ha llegado para quedarse y desarrollarse.
Bibliografía
Feng, Y., Hang, Y., Wu, W., Song, X., Xiao, X., Dong, F. & Qiao, Z. “Effectiveness of AI-driven conversational agents in improving mental health among young people: Systematic review and meta-analysis” en Journal of Medical Internet Research (2025, 27, e69639). Disponible en: https://doi.org/10.2196/69639
Hua, Y., Na, H., Li, Z. et al. “A scoping review of large language models for generative tasks in mental health care” en npj Digit. Med. (2025, 8, 230). Disponible en: https://doi.org/10.1038/s41746-025-01611-4
Ipsos. Health Service Report 2024. París, Ipsos, 2024. Disponible en: https://www.ipsos.com/sites/default/files/ct/publication/documents/2024-09/Ipsos-Health-Service-Report-2024-Global-Charts.pdf
Li, H., Zhang, R., Lee, Y. C. et al. “Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being” en npj Digit. Med. /2023, 6, 236). Disponible en: https://doi.org/10.1038/s41746-023-00979-5
Luo, X., Ghosh, S., Tilley, J. L., Besada, P., Wang, J. & Xiang, Y. “Shaping ChatGPT into my Digital Therapist: A thematic analysis of social media discourse on using generative artificial intelligence for mental health” en Digital Health (2025, 11, pp. 1-13). Disponible en: https://doi.org/10.1177/20552076251351088
Lyer, R., Nedeljkovic, M., & Meyer, D. “Using voice biomarkers to classify suicide risk in adult telehealth callers: Retrospective observational study” en MIR Mental Healt (2022, 9(8), e39807). Disponible en: https://doi.org/10.2196/39807
Jean, T., Guay Hottin, R., & Orban, P. “Forecasting mental states in schizophrenia using digital phenotyping data” en PLOS Digital Health (2025, 4(2), e0000734). Disponible en: https://doi.org/10.1371/journal.pdig.0000734
Nature Mach Intell. “Emotional risks of AI companions demand attention”. Nature Mach Intell (2025, 7, pp. 981–982. Disponible en; https://doi.org/10.1038/s42256-025-01093-9
Olawade, D. B., Wada, O. Z., Odetayo, A., David-Olawade, A. C., Asaolu, F. & Eberhardt, J. “Enhancing mental health with Artificial Intelligence: Current trends and future prospects” en Journal of medicine, surgery, and public health (2024, 3, 100099). Disponible en: https://doi.org/10.1016/j.glmedi.2024.100099
Organización Mundial de la Salud. COVID-19 pandemic triggers 25% increase in prevalence of anxiety and depression worldwide. Ginebra, OMS, 2022. Disponible en: https://www.who.int/es/news/item/02-03-2022-covid-19-pandemic-triggers-25-increase-in-prevalence-of-anxiety-and-depression-worldwide
Poudel, U., Jakhar, S., Mohan, P., & Nepal, A. “AI in Mental Health: A Review of Technological Advancements and Ethical Issues in Psychiatry” en Issues in Mental Health Nursing (2025, 46(7), pp. 693–701). Disponible en: https://doi.org/10.1080/01612840.2025.2502943
Scholich, T., Barr, M., Wiltsey Stirman, S. & Raj, S. “A comparison of responses from human therapists and large language model–based chatbots to assess therapeutic communication: Mixed methods study” en JMIR Mental Health (2025, 12, e69709). Disponible en: https://doi.org/10.2196/69709
Zhong, W., Luo, J., Zhang, H. “The therapeutic effectiveness of artificial intelligence-based chatbots in alleviation of depressive and anxiety symptoms in short-course treatments: A systematic review and meta-analysis” en Journal of Affective Disorders (2024, vol. 356). Disponible en: https://doi.org/10.1016/j.jad.2024.04.057
AUTOR:
Felipe Soto Pérez
Es profesor de la Facultad de Psicología, Universidad de Salamanca. Investiga en trastornos mentales y en telepsicología. Coedita Cuadernos de Neuropsicología y Terapia Psicológica. Integra los Institutos INICO, IBSAL y el grupo de trabajo en Psicología y Transformación Digital del COPCyL.
Madalin M. Deliu
Es investigador en la Universidad de Salamanca. Profesor de la Universidad Católica de Ávila, Máster en Psicología General Sanitaria y Doctor(c) en Psicología, Miembro del INICO.
FUENTE:
https://telos.fundaciontelefonica.com/es-buena-idea-recurrir-a-la-ia-cuando-estamos-deprimidos-o-ansiosos/
No hay comentarios:
Publicar un comentario