
Las herramientas de inteligencia artificial se han vuelto parte de la vida cotidiana de millones de personas. Sin embargo, su uso está generando nuevos dilemas legales, sociales y éticos.
Así lo advirtió Sam Altman, CEO de OpenAI, durante una reciente entrevista en el pódcast “Este Fin de Semana con Theo Von”, donde planteó una seria advertencia: las conversaciones personales que se mantienen con ChatGPT —incluyendo las de tipo terapéutico— no están protegidas legalmente como las que se dan con un profesional humano.
Durante la charla, Altman fue consultado sobre el marco regulatorio actual de la IA y reconoció que todavía hay muchas zonas grises, en especial cuando se trata de la privacidad de los usuarios.

“La gente habla de las cosas más personales de su vida con ChatGPT”, afirmó. “Sobre todo los jóvenes lo usan como terapeuta o coach de vida, pero esas conversaciones no están protegidas por ninguna ley de confidencialidad, como sí lo estarían con un médico, abogado o psicólogo”.
Según Altman, actualmente no existe una normativa legal que impida a OpenAI verse obligada a compartir información personal contenida en una conversación con el chatbot, si así lo ordena un tribunal.
“Si hablas con ChatGPT sobre tus asuntos más sensibles y luego surge una demanda o algo similar, podríamos vernos forzados a presentar esa información. Y creo que eso es un desastre”, sostuvo.

El CEO de OpenAI insistió en que es urgente crear un marco legal claro que brinde a los usuarios el mismo nivel de privacidad que tendrían con un terapeuta humano. “Nadie tenía que pensar en eso hace ni siquiera un año. Y ahora creo que es un gran problema. ¿Cómo vamos a abordar las leyes al respecto?”.
Von, presentador del pódcast, respondió que este tipo de vacíos legales es justamente lo que le impide usar frecuentemente la inteligencia artificial. Altman coincidió: “Tiene sentido… realmente querer privacidad y claridad antes de usarlo mucho”.
Un riesgo más allá de la privacidad
Las advertencias de Altman se suman a otras preocupaciones más técnicas que también ponen en duda el uso de los modelos de lenguaje como sustitutos de la terapia tradicional.
Un estudio reciente de la Universidad de Stanford reveló que los chatbots de IA pueden incurrir en estigmas, sesgos e incluso discriminación al responder sobre temas de salud mental, especialmente con usuarios pertenecientes a grupos vulnerables o marginados.

Los investigadores concluyeron que los modelos actuales de IA no están preparados para reemplazar a los profesionales humanos en el campo de la salud emocional y psicológica. “El problema radica en los matices”, explicó Nick Haber, autor principal del estudio.
“No se trata simplemente de que los LLM (modelos de lenguaje de gran escala) sean malos para la terapia, sino de que debemos pensar críticamente sobre cuál debería ser exactamente su papel en este campo”, precisó.
A pesar de reconocer que estas herramientas pueden tener un futuro prometedor como apoyo complementario en ciertos contextos clínicos, el informe deja claro que aún presentan graves limitaciones técnicas, éticas y legales.

¿Qué hacer mientras tanto?
El testimonio de Altman y las conclusiones del estudio de Stanford apuntan a una misma recomendación: no usar herramientas como ChatGPT como sustituto de una terapia profesional. Si bien pueden ser útiles para responder dudas generales o proporcionar contención temporal, lo cierto es que aún carecen del marco legal y técnico necesario para proteger adecuadamente la salud mental de las personas.
El crecimiento acelerado de la inteligencia artificial está generando nuevas oportunidades, pero también plantea desafíos urgentes. Tal como señaló Altman, la privacidad de estas interacciones no puede seguir en una zona gris. Y hasta que se establezcan protecciones legales más claras, los expertos recomiendan precaución: ChatGPT no es tu terapeuta.
Últimas Noticias
¿Adiós a los robotaxis? Tesla recibe autorización para ofrecer servicio de taxis solo con choferes al volante
Por ahora, el servicio que ofrecerá Tesla contará siempre con un humano al volante y no podrá operar bajo modalidad autónoma
Cómo la IA está ayudando a personas con autismo, TDAH y otras condiciones: “Es la voz más empática de mi vida”
Un número creciente de personas neurodivergentes ha encontrado en los chatbots un ‘salvavidas digital’ que les permite sobrellevar su entorno laboral, social y emocional

Hackean aplicación de citas Tea y exponen 72 mil imágenes de sus usuarias
El incidente se produjo poco después de que la plataforma alcanzara su pico de popularidad desde que fue creada

Sister Hong y Andy Byron: quiénes son y por qué ambos casos se apoderaron de las redes sociales a nivel global
Aunque ambos casos surgieron en contextos y países diferentes, comparten la invasión de la privacidad como uno de sus principales detonantes
