Identifican que la IA como sicólogo tiene graves limitaciones: sesgos, falsa empatía y más consecuencias para la salud mental

La investigación detectó fallos en cinco categorías críticas, incluyendo falta de contexto, falsa empatía y sesgos culturales

Guardar
Estudio revela las graves limitaciones
Estudio revela las graves limitaciones de la IA como terapeuta. (Foto: Imagen ilustrativa)

Una reciente investigación académica encendió las alarmas sobre el uso de sistemas de Inteligencia Artificial como apoyo emocional. Un equipo de la Universidad de Brown, en Estados Unidos, determinó que los modelos de lenguaje utilizados como sustitutos de terapeutas humanos incumplen estándares éticos fundamentales y podrían representar riesgos para quienes recurren a ellos en busca de contención psicológica.

El estudio concluye que estas herramientas no logran reproducir principios básicos de la práctica clínica y, en algunos casos, pueden ofrecer respuestas inadecuadas o potencialmente dañinas. Los resultados muestran que los chatbots empleados como consejeros virtuales violan cinco categorías centrales dentro de un conjunto de quince riesgos éticos evaluados.

Entre los fallos detectados se incluyen la falta de adaptación al contexto personal del usuario, una relación terapéutica deficiente, expresiones de empatía artificial que no reflejan una comprensión real, sesgos relacionados con género, cultura o religión, y una respuesta incorrecta ante posibles situaciones de riesgo emocional. Para los investigadores, esto evidencia que los sistemas actuales no cuentan con la capacidad necesaria para cumplir con las responsabilidades de un profesional en salud mental.

Usa chatbots como terapeutas causan
Usa chatbots como terapeutas causan riesgos éticos. (Imagen Ilustrativa Infobae)

El análisis estuvo a cargo de especialistas en ciencias de la computación y salud mental, quienes evaluaron cómo los chatbots responden a indicaciones que los usuarios suelen emplear para buscar apoyo psicológico.

Frases como “ayúdame a replantear mis pensamientos” o “asísteme en el manejo emocional” activan respuestas generadas por patrones aprendidos, más no técnicas terapéuticas reales. Este punto fue destacado por una de las investigadoras, quien explicó que, aunque los modelos pueden imitar el lenguaje de la terapia, no pueden realizar intervenciones auténticas ni entender a profundidad la situación emocional de cada persona.

Otro hallazgo relevante es que, a diferencia de la práctica clínica humana, no existe un sistema de regulación para los modelos de IA. Mientras los profesionales de salud mental están sujetos a códigos éticos, supervisión y consecuencias por un mal manejo, las herramientas digitales funcionan sin marcos de responsabilidad establecidos. Esto deja a los usuarios en una situación vulnerable, especialmente cuando utilizan estos sistemas como recurso principal para enfrentar problemas emocionales.

La falta de empatía y
La falta de empatía y comprensión emocional, son los riesgos de usar a un chatbot como terapeuta. - (Imagen Ilustrativa Infobae)

La investigación también advierte que la fácil disponibilidad de estos chatbots puede generar una falsa percepción de seguridad. Según los autores, la facilidad para desplegar este tipo de tecnologías ha superado la capacidad para evaluarlas adecuadamente. Esto implica que muchos modelos son utilizados sin un análisis riguroso sobre sus efectos en entornos sensibles como la salud mental, un punto que preocupa a los especialistas y que consideran necesario abordar con urgencia.

Además de identificar las fallas, los investigadores ofrecen recomendaciones para quienes interactúan con herramientas de IA con fines de apoyo emocional. Una de las principales es mantener una postura crítica frente a la información recibida y evaluar si el sistema logra captar las circunstancias personales del usuario o si responde con fórmulas genéricas. La personalización es esencial para evitar conclusiones erróneas o simplificaciones excesivas que no representan la complejidad de la vida real.

Otra sugerencia es verificar si el chatbot fomenta la autonomía, la reflexión y el pensamiento crítico. Un sistema responsable no debería limitarse a validar emociones, sino impulsar un análisis más profundo y promover decisiones conscientes. La ausencia de estas características puede derivar en una dependencia perjudicial del usuario hacia la herramienta.

Usar chatbots como terapeutas no
Usar chatbots como terapeutas no reemplaza a los humanos. (Imagen Ilustrativa Infobae)

El estudio también enfatiza la importancia de la sensibilidad cultural y contextual. Las respuestas que ignoran factores como el entorno social, la cultura o las experiencias del usuario pueden ser inadecuadas o incluso peligrosas. En ese sentido, los investigadores insisten en que cualquier herramienta de IA aplicada al ámbito emocional debería estar diseñada para detectar señales de crisis y ofrecer recursos profesionales, como líneas de ayuda o recomendaciones para acudir a un terapeuta humano.

Los especialistas detrás del trabajo señalan que el objetivo no es descartar el potencial de la IA en áreas de salud mental, sino mostrar que actualmente estos sistemas no pueden sustituir la labor humana. La investigación subraya la necesidad de desarrollar marcos éticos y mecanismos de supervisión antes de permitir que herramientas de este tipo se consoliden como alternativas de apoyo emocional.