Guardar
El uso de chatbots como
El uso de chatbots como ChatGPT para terapia digital crece entre jóvenes por su inmediatez y accesibilidad. (Imagen Ilustrativa Infobae)

Actualmente, modelos como ChatGPT ofrecen algo más que respuestas a preguntas o soluciones para problemas técnicos y son cada vez más personas las que confían en la inteligencia artifical para “conversar” sobre sus problemas emocionales, buscar consejo e incluso abordar situaciones de angustia o soledad mediante terapia digital.

Esta tendencia plantea varios interrogantes sobre el tratamiento que se le está dando a la salud mental en la actualidad, al no saber si realmente la IA tiene las facultades para sustituir a un profesional o cuáles son los beneficios y los riesgos asociados a esta práctica.

Por qué las personas usan IA como una herramienta de terapia

Frente a los altos costos y las largas listas de espera para consultas con psicólogos y psiquiatras, la inteligencia artificial propone soluciones atractivas: inmediatez, facilidad de acceso y disponibilidad permanente.

Estos sistemas pueden resultar útiles como herramientas de apoyo. Su capacidad para brindar respuestas rápidas, proporcionar ideas de autoayuda, organizar pensamientos o, incluso, alertar sobre la urgencia de ciertas situaciones, responde a una demanda social creciente.

La IA no puede replicar
La IA no puede replicar la experiencia humana ni los matices emocionales esenciales en la terapia psicológica. (Imagen Ilustrativa Infobae)

En este contexto, los jóvenes destacan entre los principales usuarios de chatbots como ChatGPT. Para ellos, obtener una respuesta sin juicio, personalizada y al instante tiene un valor especial. Gabriela Arriagada-Bruneau, académica del Instituto de Éticas Aplicadas en Chile, señala que la tendencia responde a una paradoja contemporánea: “buscamos consuelo emocional en un mundo automatizado”.

El confort de obtener reacción inmediata refuerza la sensación de compañía, aunque sea ficticia, y esto puede derivar en una cierta dependencia emocional del sistema.

Jocelyn Dunstan, investigadora en inteligencia artificial de la Universidad Católica, observa que estos programas pueden desempeñar funciones complementarias para ordenar pensamientos o clasificar urgencias, pero advierte que “estos sistemas pueden apoyar la gestión clínica, no reemplazar la consulta psicológica”.

Cuál es el problema que tiene la IA para ser una buena terapeuta

A pesar de la sofisticación creciente, para muchos expertos la inteligencia artificial todavía tropieza con una barrera difícil de franquear: la imposibilidad de simular la experiencia humana real.

Los algoritmos presentan sesgos culturales
Los algoritmos presentan sesgos culturales y lingüísticos que pueden afectar la calidad del apoyo emocional. (Imagen Ilustrativa Infobae)

El concepto del “valle inquietante”, acuñado por Masahiro Mori, describe la zozobra o inquietud que experimentan las personas ante robots o sistemas que resultan muy parecidos a un ser humano, aunque no del todo reales.

Andrew Penn, profesor y especialista en salud mental, explica que tal desconexión produce una contradicción emocional porque, “aunque los modelos actuales resultan impresionantemente humanizados en su lenguaje, aún falta algo esencial”.

La neurociencia moderna aporta más motivos para la cautela. La interacción humana en terapia implica fenómenos únicos de regulación emocional a través de la proximidad y las expresiones faciales. El cerebro humano responde no solo a lo verbal, sino a los gestos, el tono y los silencios del interlocutor.

Experimentos con robots han demostrado que los movimientos antinaturales de estos dispositivos activan áreas cerebrales vinculadas al malestar, y que la co-regulación autónoma entre paciente y terapeuta solo se produce plenamente entre personas.

El confort de la respuesta
El confort de la respuesta instantánea de la IA puede generar una falsa sensación de compañía y dependencia. (Imagen Ilustrativa Infobae)

Además, la dinámica misma del proceso terapéutico, plagada de matices como la transferencia y la exploración de distorsiones cognitivas en el vínculo entre paciente y profesional, resulta virtualmente imposible de reproducir por algoritmos.

La experiencia de exponerse socialmente, como el simple hecho de ir a una consulta, para un paciente con fobia social o depresión, puede funcionar como una forma de terapia conductual fundamental. Todos estos “meta-niveles” del proceso psicológico quedan fuera del alcance tecnológico, más allá de la destreza de los sistemas de procesamiento de lenguaje.

Cuáles son los riesgos de usar la IA como herramienta de terapia

Más allá de la imposibilidad actual de igualar la conexión humana, el uso de inteligencia artificial en un contexto psicoterapéutico presenta riesgos adicionales.

El primero y más evidente es el de la privacidad de los datos. Mientras los profesionales de la salud se rigen por estrictas leyes de confidencialidad —como la HIPAA en Estados Unidos—, no existe una regulación global eficaz que garantice la protección de la información personal compartida en aplicaciones de IA. Muchas veces, los usuarios aceptan términos y condiciones sin comprender que sus datos podrían ser vendidos o utilizados con fines comerciales.

Especialistas insisten en que la
Especialistas insisten en que la IA no debe usarse en situaciones de riesgo vital o crisis psicológica. (Imagen Ilustrativa Infobae)

Otro problema, señalado por Arriagada-Bruneau, reside en los sesgos culturales y lingüísticos de los algoritmos. Gran parte de estas herramientas han sido entrenadas con textos provenientes de contextos anglosajones y racionalistas, que no captan completamente las particularidades emocionales o culturales de personas de otras regiones. Esta limitación puede conducir a respuestas insatisfactorias o incluso dañinas para quienes buscan ayuda.

La académica Dunstan también advierte que la estructura comercial de estos servicios lleva a los desarrolladores a diseñar chatbots “aduladores y cercanos” para mantener al usuario interactuando el mayor tiempo posible. Esta característica, lejos de ofrecer contención auténtica, puede inducir a una dependencia emocional peligrosa.

Los expertos insisten en la gravedad de recurrir a la IA en contextos de riesgo. Paula Errázuriz lo resume como que “una persona con riesgo vital no debe descansar en lo que le digan estas herramientas”. Los modelos actuales pueden pasar por alto señales de urgencia psicológica, retrasando la intervención profesional adecuada.