
Actualmente, modelos como ChatGPT ofrecen algo más que respuestas a preguntas o soluciones para problemas técnicos y son cada vez más personas las que confían en la inteligencia artifical para “conversar” sobre sus problemas emocionales, buscar consejo e incluso abordar situaciones de angustia o soledad mediante terapia digital.
Esta tendencia plantea varios interrogantes sobre el tratamiento que se le está dando a la salud mental en la actualidad, al no saber si realmente la IA tiene las facultades para sustituir a un profesional o cuáles son los beneficios y los riesgos asociados a esta práctica.
Por qué las personas usan IA como una herramienta de terapia
Frente a los altos costos y las largas listas de espera para consultas con psicólogos y psiquiatras, la inteligencia artificial propone soluciones atractivas: inmediatez, facilidad de acceso y disponibilidad permanente.
Estos sistemas pueden resultar útiles como herramientas de apoyo. Su capacidad para brindar respuestas rápidas, proporcionar ideas de autoayuda, organizar pensamientos o, incluso, alertar sobre la urgencia de ciertas situaciones, responde a una demanda social creciente.

En este contexto, los jóvenes destacan entre los principales usuarios de chatbots como ChatGPT. Para ellos, obtener una respuesta sin juicio, personalizada y al instante tiene un valor especial. Gabriela Arriagada-Bruneau, académica del Instituto de Éticas Aplicadas en Chile, señala que la tendencia responde a una paradoja contemporánea: “buscamos consuelo emocional en un mundo automatizado”.
El confort de obtener reacción inmediata refuerza la sensación de compañía, aunque sea ficticia, y esto puede derivar en una cierta dependencia emocional del sistema.
Jocelyn Dunstan, investigadora en inteligencia artificial de la Universidad Católica, observa que estos programas pueden desempeñar funciones complementarias para ordenar pensamientos o clasificar urgencias, pero advierte que “estos sistemas pueden apoyar la gestión clínica, no reemplazar la consulta psicológica”.
Cuál es el problema que tiene la IA para ser una buena terapeuta
A pesar de la sofisticación creciente, para muchos expertos la inteligencia artificial todavía tropieza con una barrera difícil de franquear: la imposibilidad de simular la experiencia humana real.

El concepto del “valle inquietante”, acuñado por Masahiro Mori, describe la zozobra o inquietud que experimentan las personas ante robots o sistemas que resultan muy parecidos a un ser humano, aunque no del todo reales.
Andrew Penn, profesor y especialista en salud mental, explica que tal desconexión produce una contradicción emocional porque, “aunque los modelos actuales resultan impresionantemente humanizados en su lenguaje, aún falta algo esencial”.
La neurociencia moderna aporta más motivos para la cautela. La interacción humana en terapia implica fenómenos únicos de regulación emocional a través de la proximidad y las expresiones faciales. El cerebro humano responde no solo a lo verbal, sino a los gestos, el tono y los silencios del interlocutor.
Experimentos con robots han demostrado que los movimientos antinaturales de estos dispositivos activan áreas cerebrales vinculadas al malestar, y que la co-regulación autónoma entre paciente y terapeuta solo se produce plenamente entre personas.

Además, la dinámica misma del proceso terapéutico, plagada de matices como la transferencia y la exploración de distorsiones cognitivas en el vínculo entre paciente y profesional, resulta virtualmente imposible de reproducir por algoritmos.
La experiencia de exponerse socialmente, como el simple hecho de ir a una consulta, para un paciente con fobia social o depresión, puede funcionar como una forma de terapia conductual fundamental. Todos estos “meta-niveles” del proceso psicológico quedan fuera del alcance tecnológico, más allá de la destreza de los sistemas de procesamiento de lenguaje.
Cuáles son los riesgos de usar la IA como herramienta de terapia
Más allá de la imposibilidad actual de igualar la conexión humana, el uso de inteligencia artificial en un contexto psicoterapéutico presenta riesgos adicionales.
El primero y más evidente es el de la privacidad de los datos. Mientras los profesionales de la salud se rigen por estrictas leyes de confidencialidad —como la HIPAA en Estados Unidos—, no existe una regulación global eficaz que garantice la protección de la información personal compartida en aplicaciones de IA. Muchas veces, los usuarios aceptan términos y condiciones sin comprender que sus datos podrían ser vendidos o utilizados con fines comerciales.

Otro problema, señalado por Arriagada-Bruneau, reside en los sesgos culturales y lingüísticos de los algoritmos. Gran parte de estas herramientas han sido entrenadas con textos provenientes de contextos anglosajones y racionalistas, que no captan completamente las particularidades emocionales o culturales de personas de otras regiones. Esta limitación puede conducir a respuestas insatisfactorias o incluso dañinas para quienes buscan ayuda.
La académica Dunstan también advierte que la estructura comercial de estos servicios lleva a los desarrolladores a diseñar chatbots “aduladores y cercanos” para mantener al usuario interactuando el mayor tiempo posible. Esta característica, lejos de ofrecer contención auténtica, puede inducir a una dependencia emocional peligrosa.
Los expertos insisten en la gravedad de recurrir a la IA en contextos de riesgo. Paula Errázuriz lo resume como que “una persona con riesgo vital no debe descansar en lo que le digan estas herramientas”. Los modelos actuales pueden pasar por alto señales de urgencia psicológica, retrasando la intervención profesional adecuada.
Últimas Noticias
Así puedes eliminar el chat de Meta AI y controlar su presencia en WhatsApp
La app permite eliminar la conversación de Meta AI de la lista principal mediante unos sencillos pasos, ofreciendo mayor control sobre la privacidad, la utilidad de la IA y la apariencia de la interfaz

Todos los riesgos a los que te expones al ver películas y series en Magis TV
Expertos advierten que instalar aplicaciones piratas para ver contenido gratuito puede dejar en manos de extraños datos sensibles y ocasionar problemas legales

Por qué el velocímetro del auto marca más velocidad que Google Maps o Waze
Los sistemas de navegación satelital suelen mostrar cifras distintas a las que indica el tablero del vehículo. Esta divergencia responde a regulaciones internacionales que buscan reducir el número de accidentes

OD, el nuevo videojuego de terror en el que participó un reconocido cineasta y comediante
La colaboración entre Kojima Productions y el cineasta Jordan Peele da lugar a OD, una apuesta narrativa y visual que eleva las expectativas en el género del horror psicológico con innovaciones técnicas y artísticas

Esta es la función que debes desactivar si tienes el smartphone lento
Quitar o reducir las animaciones integradas en Android puede acelerar la apertura de aplicaciones y la navegación diaria, una solución rápida y reversible para usuarios frustrados por la lentitud del teléfono
