Sam Altman, CEO de OpenAI advierte: ChatGPT no debe reemplazar a los psicólogos

El CEO de OpenAI advirtió que no existe protección legal sobre las conversaciones personales con el chatbot y que podrían ser utilizadas en procesos judiciales

Guardar
Sam Altman revela por qué
Sam Altman revela por qué no se debe usar ChatGPT como terapeuta. REUTERS/Axel Schmidt

Las herramientas de inteligencia artificial se han vuelto parte de la vida cotidiana de millones de personas. Sin embargo, su uso está generando nuevos dilemas legales, sociales y éticos.

Así lo advirtió Sam Altman, CEO de OpenAI, durante una reciente entrevista en el pódcast “Este Fin de Semana con Theo Von”, donde planteó una seria advertencia: las conversaciones personales que se mantienen con ChatGPT —incluyendo las de tipo terapéutico— no están protegidas legalmente como las que se dan con un profesional humano.

Durante la charla, Altman fue consultado sobre el marco regulatorio actual de la IA y reconoció que todavía hay muchas zonas grises, en especial cuando se trata de la privacidad de los usuarios.

Sam Altman indicó que falta
Sam Altman indicó que falta regular legalmente la inteligencia artificial.

“La gente habla de las cosas más personales de su vida con ChatGPT”, afirmó. “Sobre todo los jóvenes lo usan como terapeuta o coach de vida, pero esas conversaciones no están protegidas por ninguna ley de confidencialidad, como sí lo estarían con un médico, abogado o psicólogo”.

Según Altman, actualmente no existe una normativa legal que impida a OpenAI verse obligada a compartir información personal contenida en una conversación con el chatbot, si así lo ordena un tribunal.

“Si hablas con ChatGPT sobre tus asuntos más sensibles y luego surge una demanda o algo similar, podríamos vernos forzados a presentar esa información. Y creo que eso es un desastre”, sostuvo.

Sam Altman dio a conocer
Sam Altman dio a conocer que cualquier juez puede solicitar tus conversaciones con ChatGPT debido a que la IA no cuenta con protección legal.

El CEO de OpenAI insistió en que es urgente crear un marco legal claro que brinde a los usuarios el mismo nivel de privacidad que tendrían con un terapeuta humano. “Nadie tenía que pensar en eso hace ni siquiera un año. Y ahora creo que es un gran problema. ¿Cómo vamos a abordar las leyes al respecto?”.

Von, presentador del pódcast, respondió que este tipo de vacíos legales es justamente lo que le impide usar frecuentemente la inteligencia artificial. Altman coincidió: “Tiene sentido… realmente querer privacidad y claridad antes de usarlo mucho”.

Un riesgo más allá de la privacidad

Las advertencias de Altman se suman a otras preocupaciones más técnicas que también ponen en duda el uso de los modelos de lenguaje como sustitutos de la terapia tradicional.

Un estudio reciente de la Universidad de Stanford reveló que los chatbots de IA pueden incurrir en estigmas, sesgos e incluso discriminación al responder sobre temas de salud mental, especialmente con usuarios pertenecientes a grupos vulnerables o marginados.

ChatGPT es usado por los
ChatGPT es usado por los adolescentes como terapeuta. REUTERS/Dado Ruvic/Illustration/File Photo

Los investigadores concluyeron que los modelos actuales de IA no están preparados para reemplazar a los profesionales humanos en el campo de la salud emocional y psicológica. “El problema radica en los matices”, explicó Nick Haber, autor principal del estudio.

“No se trata simplemente de que los LLM (modelos de lenguaje de gran escala) sean malos para la terapia, sino de que debemos pensar críticamente sobre cuál debería ser exactamente su papel en este campo”, precisó.

A pesar de reconocer que estas herramientas pueden tener un futuro prometedor como apoyo complementario en ciertos contextos clínicos, el informe deja claro que aún presentan graves limitaciones técnicas, éticas y legales.

Existen varias razones por la
Existen varias razones por la que ChatGPT no debe ser usado como terapeuta mental. REUTERS/Dado Ruvic/Illustration/File Photo

¿Qué hacer mientras tanto?

El testimonio de Altman y las conclusiones del estudio de Stanford apuntan a una misma recomendación: no usar herramientas como ChatGPT como sustituto de una terapia profesional. Si bien pueden ser útiles para responder dudas generales o proporcionar contención temporal, lo cierto es que aún carecen del marco legal y técnico necesario para proteger adecuadamente la salud mental de las personas.

El crecimiento acelerado de la inteligencia artificial está generando nuevas oportunidades, pero también plantea desafíos urgentes. Tal como señaló Altman, la privacidad de estas interacciones no puede seguir en una zona gris. Y hasta que se establezcan protecciones legales más claras, los expertos recomiendan precaución: ChatGPT no es tu terapeuta.