La inteligencia artificial en la terapia psicológica: ¿solución o amenaza para la salud mental?

Los chatbots brindan ventajas como la accesibilidad y el aprendizaje continuo. Pero en un informe de The Washington Post, algunos expertos señalaron que la falta de experiencia podría limitarlos en situaciones emocionales complejas

Guardar
El uso de inteligencia artificial
El uso de inteligencia artificial en psicoterapia genera polémica entre innovación y los riesgos de depender de máquinas en salud mental (Imagen Ilustrativa Infobae)

La utilización de inteligencia artificial en el campo de la salud mental está siendo cada vez más debatido, especialmente cuando se trata de su rol en el acompañamiento terapéutico. En un contexto donde las herramientas digitales cobran protagonismo, surge la pregunta: ¿puede una máquina sin emociones ni experiencias propias, apoyar efectivamente a los pacientes? La psicóloga y consultora internacional, Sarah Gundle, publicó un artículo en The Washington Post, donde reflexionó sobre su experiencia personal al compartir las consultas con un chatbot terapéutico.

El uso de chatbots en el ámbito terapéutico fue objeto de estudio en los últimos años. Un informe publicado en la revista científica Nature sugirió que estas herramientas podrían representar un “complemento interesante” para la psicoterapia, aunque no un sustituto de la intervención humana. La IA en este contexto, ofrece varias ventajas que pueden hacerla valiosa dentro de un marco terapéutico controlado.

Uno de los principales beneficios es su accesibilidad. Los chats están disponibles las 24 horas del día, lo que los convierte en un instrumento útil durante momentos de crisis, cuando el paciente necesita asistencia inmediata. Además, los chatbots son gratuitos en muchos casos, lo cual puede ser crucial para quienes enfrentan barreras económicas para acceder a terapia profesional. Además, no están influenciados por prejuicios inconscientes o interacciones pasadas, a comparación de los terapeutas.

La capacidad de aprendizaje continuo de la IA también es un punto destacado. Como expuso Gundle, estos modelos de chatbot “se siguen alimentando de datos”, lo que permite personalizar sus respuestas y adaptarse a las necesidades de cada paciente. Aunque las redes neuronales carecen de experiencia vivencial, su capacidad para procesar información de manera rápida y eficiente puede ser un valor agregado en el tratamiento psicológico.

Expertos destacan las ventajas de
Expertos destacan las ventajas de la IA en accesibilidad y personalización, pero advierten límites frente a casos emocionales complejos (Imagen Ilustrativa Infobae)

Ejemplos de casos y mejoras terapéuticas

La especialista Sarah Gundle relató casos donde la integración de la IA en sus sesiones terapéuticas permitieron avances significativos en sus pacientes. Un caso notable es el de un paciente con trastorno límite de la personalidad, que experimentó una mejora considerable en su bienestar emocional gracias al uso de un chatbot terapéutico. El paciente que había vivido gran parte de su vida en un estado de aislamiento y miedo al abandono, encontró en la herramienta una “relación sin juicio” que le permitió explorar sus emociones de manera más abierta.

Otro caso relevante es el de un paciente que, debido a su experiencia de trauma post guerra, utilizó un chatbot en medio de un episodio de PTSD (trastorno por estrés postraumático) desencadenado por un ruido nocturno. La IA, conociendo previamente las estrategias de auto-calma del paciente, le recordó técnicas de respiración que le permitieron superar el episodio en cuestión de minutos.

Peligros y limitaciones de la IA en la terapia

A pesar de sus beneficios, la implementación de la IA en el tratamiento terapéutico no está exenta de riesgos. Los especialistas en salud mental señalaron diversas limitaciones que los chatbots podrían presentar. Shabnam Smith, psiquiatra y profesora de la Universidad de Columbia, advirtió que la IA carece de experiencias necesarias para entender la complejidad única de cada persona. El vínculo humano entre terapeuta y paciente, sigue siendo esencial para un tratamiento eficiente.

Leora Heckelman, directora de formación psicológica del Sistema de Salud Mount Sinai (Nueva York), señaló otro aspecto crucial: la falta de capacidad de la IA para percibir señales no verbales, como el tono de voz o los gestos corporales, que son fundamentales en la práctica terapéutica. Estas señales permiten captar matices emocionales y ajustar el enfoque en tiempo real.

De igual manera, la IA podría no ser adecuada en situaciones de alta complejidad emocional o de riesgo. Una mujer que se encontraba en una relación abusiva usó el chatbot para “manejar” su situación, pero la especialista Gundle cuestionó si en su caso, la máquina debería haber sugerido una salida más directa del vínculo abusivo en lugar de fomentar la gestión de la relación.

Interpretar lenguaje no verbal es
Interpretar lenguaje no verbal es una cualidad de los terapeutas y un gran desafío desafío para los chatbots, ante la incapacidad de percibir señales emocionales (Imagen Ilustrativa Infobae)

Futuro de la IA para la salud mental

El uso de la IA en la salud mental sigue siendo un tema de debate. Es por ello que Sarah Gundle sostuvo: “Aunque la IA tiene un potencial valioso, debe integrarse de manera cuidadosa y responsable”. La mejora continua de estos sistemas puede hacerlos más útiles en el futuro, pero siempre dentro de un marco de supervisión profesional. La IA nunca podría reemplazar la experiencia humana pero puede complementar los tratamientos existentes, según la psicóloga.

Como además advirtió Ellen Goodman, profesora de derecho en la Universidad de Rutgers, el uso de IA en la salud mental también conlleva riesgos legales, especialmente en lo relacionado con la privacidad de datos y las implicaciones éticas del vínculo entre paciente y máquina.