
Una reciente investigación académica encendió las alarmas sobre el uso de sistemas de Inteligencia Artificial como apoyo emocional. Un equipo de la Universidad de Brown, en Estados Unidos, determinó que los modelos de lenguaje utilizados como sustitutos de terapeutas humanos incumplen estándares éticos fundamentales y podrían representar riesgos para quienes recurren a ellos en busca de contención psicológica.
El estudio concluye que estas herramientas no logran reproducir principios básicos de la práctica clínica y, en algunos casos, pueden ofrecer respuestas inadecuadas o potencialmente dañinas. Los resultados muestran que los chatbots empleados como consejeros virtuales violan cinco categorías centrales dentro de un conjunto de quince riesgos éticos evaluados.
Entre los fallos detectados se incluyen la falta de adaptación al contexto personal del usuario, una relación terapéutica deficiente, expresiones de empatía artificial que no reflejan una comprensión real, sesgos relacionados con género, cultura o religión, y una respuesta incorrecta ante posibles situaciones de riesgo emocional. Para los investigadores, esto evidencia que los sistemas actuales no cuentan con la capacidad necesaria para cumplir con las responsabilidades de un profesional en salud mental.

El análisis estuvo a cargo de especialistas en ciencias de la computación y salud mental, quienes evaluaron cómo los chatbots responden a indicaciones que los usuarios suelen emplear para buscar apoyo psicológico.
Frases como “ayúdame a replantear mis pensamientos” o “asísteme en el manejo emocional” activan respuestas generadas por patrones aprendidos, más no técnicas terapéuticas reales. Este punto fue destacado por una de las investigadoras, quien explicó que, aunque los modelos pueden imitar el lenguaje de la terapia, no pueden realizar intervenciones auténticas ni entender a profundidad la situación emocional de cada persona.
Otro hallazgo relevante es que, a diferencia de la práctica clínica humana, no existe un sistema de regulación para los modelos de IA. Mientras los profesionales de salud mental están sujetos a códigos éticos, supervisión y consecuencias por un mal manejo, las herramientas digitales funcionan sin marcos de responsabilidad establecidos. Esto deja a los usuarios en una situación vulnerable, especialmente cuando utilizan estos sistemas como recurso principal para enfrentar problemas emocionales.

La investigación también advierte que la fácil disponibilidad de estos chatbots puede generar una falsa percepción de seguridad. Según los autores, la facilidad para desplegar este tipo de tecnologías ha superado la capacidad para evaluarlas adecuadamente. Esto implica que muchos modelos son utilizados sin un análisis riguroso sobre sus efectos en entornos sensibles como la salud mental, un punto que preocupa a los especialistas y que consideran necesario abordar con urgencia.
Además de identificar las fallas, los investigadores ofrecen recomendaciones para quienes interactúan con herramientas de IA con fines de apoyo emocional. Una de las principales es mantener una postura crítica frente a la información recibida y evaluar si el sistema logra captar las circunstancias personales del usuario o si responde con fórmulas genéricas. La personalización es esencial para evitar conclusiones erróneas o simplificaciones excesivas que no representan la complejidad de la vida real.
Otra sugerencia es verificar si el chatbot fomenta la autonomía, la reflexión y el pensamiento crítico. Un sistema responsable no debería limitarse a validar emociones, sino impulsar un análisis más profundo y promover decisiones conscientes. La ausencia de estas características puede derivar en una dependencia perjudicial del usuario hacia la herramienta.

El estudio también enfatiza la importancia de la sensibilidad cultural y contextual. Las respuestas que ignoran factores como el entorno social, la cultura o las experiencias del usuario pueden ser inadecuadas o incluso peligrosas. En ese sentido, los investigadores insisten en que cualquier herramienta de IA aplicada al ámbito emocional debería estar diseñada para detectar señales de crisis y ofrecer recursos profesionales, como líneas de ayuda o recomendaciones para acudir a un terapeuta humano.
Los especialistas detrás del trabajo señalan que el objetivo no es descartar el potencial de la IA en áreas de salud mental, sino mostrar que actualmente estos sistemas no pueden sustituir la labor humana. La investigación subraya la necesidad de desarrollar marcos éticos y mecanismos de supervisión antes de permitir que herramientas de este tipo se consoliden como alternativas de apoyo emocional.
Últimas Noticias
Los 10 animes más populares en Crunchyroll
Estas son las series que han ganado popularidad en la plataforma de streaming que apuesta fuertemente por las producciones japonesas

Lista completa de los juegos que llegan a Steam en noviembre de 2025
La plataforma suma siete títulos que llegan con expectativas altas por parte de la comunidad gamer

NotebookLM de Google se actualiza como investigador: qué es y para qué sirve
La plataforma ahora integra Deep Research, una herramienta que ayuda a obtener información relevante de forma rápida y organizada mediante resúmenes y comparaciones de diversas fuentes académicas

El puerto USB del router puede convertirse en un punto de ciberataques: estos son los riesgos
Expertos advierten que el puerto USB del router puede abrir brechas de seguridad si se utiliza sin una configuración adecuada




