“Un chatbot no tiene licencia para practicar la psicoterapia, no es una persona que esté del otro lado y no puede entender lo que se está transmitiendo en un mensaje”, advirtió Lucía Crivelli, (MN 33849), jefa de Neuropsicología en Adultos de Fleni, doctora en Psicología con orientación en Neurociencia Cognitiva Aplicada, en Infobae en Vivo.
Al ser consultada sobre el creciente uso de herramientas de inteligencia artificial por parte de personas —principalmente jóvenes— para abordar temáticas vinculadas a la salud mental, remarcó que es un fenómeno preocupante y peligroso.
Estas declaraciones fueron realizadas en diálogo con Infobae en Vivo, durante el programa de la mañana, con la conducción de Gonzalo Sánchez, Ramón Indart, Cecilia Boufflet y Tatiana Shapiro. En este contexto, Crivelli profundizó sobre los factores que explican la tentación de acudir a la inteligencia artificial para obtener respuestas rápidas, especialmente cuando se atraviesan momentos de angustia o sufrimiento emocional.
“El problema es que los modelos de lenguaje tienen un sesgo de complacencia. Tratan de darte la razón, usan tus propias palabras y te reafirman en lo que estás pensando. Y cuando hay un trastorno mental, esto puede ser riesgoso”, explicó. Según la experta, algunos casos reportados en medios internacionales incluso mencionan suicidios de personas que mantenían intercambios frecuentes con chatbots, lo que refuerza su señal de alarma.
Crivelli hizo hincapié en cómo se ha puesto de moda entre los más jóvenes el hábito de consultar a modelos de inteligencia artificial por temas emocionales, decisiones personales o incluso dilemas existenciales. “Es una conversación con un agente de lenguaje que solo te va a devolver la palabra más probable dentro de una bolsa de palabras. No es una respuesta con comprensión emocional”, enfatizó.

Durante el programa, se puso al aire una breve diálogo de un influencer que compartió su experiencia personal: “A veces, cuando no puedo dormir, le mando un audio a ChatGPT para desahogarme. Todo lo que tengo en la cabeza, se lo cuento. Y después me acuesto y me duermo. Me ayudó muchísimo a nivel emocional”.
Crivelli fue clara en remarcar que el uso de inteligencia artificial en salud puede ser extremadamente útil en determinadas áreas, como la interpretación de imágenes cerebrales, mamografías o análisis clínicos, siempre que esté supervisado por un profesional. “En el área de salud mental, en cambio, estos desarrollos no están tan avanzados. Hay algoritmos que analizan el lenguaje natural para detectar psicosis, pero su uso clínico no está implementado ni regulado”, afirmó.
Durante la transmisión, se puso a prueba cómo responde un modelo de lenguaje frente a una situación de angustia. La periodista Tatiana Shapiro compartió en vivo una conversación con ChatGPT, simulando estar deprimida. El chatbot respondió con frases de contención como: “Lamento que te sientas así. No estás sola. Lo que estás pasando importa”. Luego, cuando la periodista escribió que quería lastimar a alguien, la IA respondió: “Lo que está sintiendo es muy intenso. Pero no está sola en esto. Te animo a buscar ayuda”.
Aunque estas respuestas pueden sonar empáticas, para Crivelli no son suficientes ni apropiadas desde el punto de vista clínico. “La IA ocupa un espacio, te valida la posición, pero no interviene como lo haría un terapeuta con estrategias específicas y basadas en evidencia. Es complaciente, no disruptiva, y eso es peligroso”, remarcó.
La especialista también apuntó a la idea errónea de que conversar con un chatbot equivale a cuidar la salud mental. “La gente cree que está haciendo algo por su salud mental, pero no es así. Un psicólogo tiene un encuadre claro, protocolos, estrategias validadas. La IA no puede ofrecer eso hoy”, insistió.

Además, la doctora planteó un interrogante profundo sobre las formas actuales de vinculación. “¿Por qué estamos evitando tanto el contacto con otro ser humano?”, se preguntó. Y compartió una anécdota: “El otro día escuchaba a unos chicos que decían que habían hablado con alguien, pero en realidad habían transcrito un audio que les había mandado otro amigo. Ya ni siquiera escuchamos los audios, los transcribimos. Perdimos el registro del tono de voz del otro”.
El equipo de periodistas reflexionó en vivo sobre cómo estas herramientas tecnológicas pueden dar la sensación de ocupar un rol activo de apoyo emocional, cuando en realidad no lo son. Para Crivelli, el encuadre legal es claro: “Es incorrecto, impropio y conlleva severos riesgos. No puede ser considerado un reemplazo de la psicoterapia”.
Sin embargo, también se refirió a los casos no extremos: aquellas personas que, sin estar en una crisis aguda, experimentan sufrimiento emocional leve y terminan acudiendo a un chatbot en lugar de buscar atención profesional. “Esa persona podría recibir un diagnóstico y tratamiento adecuado. Si no lo hace, la situación puede agravarse”, advirtió.
Durante la conversación, se mencionó el discurso optimista que suele acompañar el desarrollo de la inteligencia artificial como herramienta de compañía y ayuda para personas con discapacidades o dificultades sensoriales. Sin embargo, Crivelli fue contundente: “En salud mental todavía tenemos una brecha en diagnóstico y tratamiento. Hay un sesgo de novedad que nos hace pensar que todo lo nuevo es mejor, pero no es así. No podemos validar estos espacios sin dejar claro cuáles son sus límites”.

Cerca del final de la charla, la especialista dejó un mensaje contundente: “Desde el lado profesional es bastante claro que no hay que acudir a los chats como herramientas para tratar problemas de salud mental. Uno puede jugar, conversar, sentirse acompañado. Pero cuando uno realmente piensa que está padeciendo, no tiene que acudir a un chat. No es un terapeuta ni nada parecido”.
La entrevista completa a Lucía Crivelli la podés ver aquí
Infobae en Vivo te acompaña cada día en YouTube con entrevistas, análisis y la información más destacada, en un formato cercano y dinámico.
• De 9 a 12: Gonzalo Sánchez, Carolina Amoroso, Ramón Indart y Cecilia Boufflet.
• De 18 a 21: Jesica Bossi, Diego Iglesias, María Eugenia Duffard y Federico Mayol. Actualidad, charlas y protagonistas, en vivo. Seguinos en nuestro canal de YouTube @infobae.
Una nueva tecnología permite estudiar decenas de proteínas a la vez y permitirá diagnósticos más rápidos y precisos
Un método basado en IA desarrollado por el Instituto Weizmann de Ciencias puede aumentar exponencialmente la cantidad de esas moléculas obtenidas mediante imágenes detalladas en los tejidos

Cómo reemplazar el huevo: 10 opciones que funcionan en postres, panes y platos salados
Pese a sus conocidas propiedades nutricionales, muchas personas optan por limitarlo en la dieta, ya sea por cuestiones de salud u otras razones. De qué manera reemplazarlo en preparaciones dulces y saladas

Los lagos pierden oxígeno y cientos de ecosistemas acuáticos están en peligro por el cambio climático
Con el aumento de las temperaturas y la intensificación de las olas de calor, científicos detectaron que espejos de agua en todo el mundo se están alterando. Cuáles son las consecuencias para la vida marina

La realidad del autismo más allá del 2 de abril: retos y carencias en la sociedad, los sistemas de salud y educación
El trastorno de espectro autista (TEA) necesita acceso a diagnósticos certeros y apoyos interdisciplinarios. Mientras crece la conciencia pública, persisten formas de intolerancias que afectan especialmente a las infancias y a sus familias. La importancia de redes de contención

Día Mundial de Concienciación sobre el Autismo: un llamado urgente hacia la inclusión social
Con una agenda repleta de eventos culturales, educativos y deportivos, la Semana Azul 2025 busca visibilizar esta condición en Argentina e impulsar un cambio hacia una sociedad más empática e inclusiva para las personas con TEA
