OpenAI ha anunciado una nueva función para ChatGPT que mostrará recordatorios periódicos durante sesiones prolongadas, incentivando a los usuarios a tomar descansos.
Estos avisos dirán: “Has chateado por un buen tiempo. ¿Es un buen momento para descansar?” Los usuarios podrán elegir entre pausar o continuar utilizando la inteligencia artificial para seguir recibiendo ayuda.
La compañía tecnológica señala que esta función busca fomentar un uso equilibrado y consciente del tiempo frente a la plataforma.

Además del aviso de tiempo, ChatGPT trae otros cambios como:
- Detección de señales de angustia mental o emocional.
ChatGPT está diseñado para responder con honestidad y con base en información confiable, apunta OpenAI. Sin embargo, en algunos casos poco comunes, el modelo 4o no ha logrado identificar señales de delirio o dependencia emocional, según la compañía.
Aunque estas situaciones son raras, seguimos trabajando para mejorar el modelo y desarrollar herramientas que permitan detectar mejor signos de angustia mental o emocional.
Así, ChatGPT podrá responder de forma más adecuada y, cuando sea necesario, orientar a las personas hacia recursos confiables y basados en evidencia.
- Ayuda al analizar desafíos personales.
Si preguntas algo como “¿Debería terminar con mi novio?”, ChatGPT no te dará una respuesta directa.
En lugar de eso, su función es ayudarte a reflexionar, hacerte preguntas útiles y considerar los aspectos positivos y negativos. Muy pronto, se implementará una nueva forma de responder en situaciones que involucren decisiones personales importantes.
Sam Altman sobre compartir temas personales con ChatGPT
Sam Altman, CEO de OpenAI —la empresa detrás de ChatGPT— habló en el pódcast This Past Weekend sobre el creciente uso de la inteligencia artificial para tratar temas personales.
“La gente comparte aspectos muy íntimos de su vida con ChatGPT”, afirmó. “Especialmente los jóvenes lo utilizan como si fuera un terapeuta o un coach de vida. Pero esas conversaciones no están protegidas por ninguna ley de confidencialidad, como lo estarían con un médico, abogado o psicólogo”.

Altman advirtió que, actualmente, no existe una regulación legal que impida que OpenAI se vea obligada a revelar información personal contenida en conversaciones con el chatbot, si así lo ordena un tribunal.
“Si alguien habla con ChatGPT sobre asuntos delicados y luego hay una demanda, podríamos vernos forzados a entregar esa información. Y creo que eso sería un desastre”, señaló.
El CEO subrayó la urgencia de establecer un marco legal claro que garantice a los usuarios el mismo nivel de privacidad que tendrían con un terapeuta humano. “Hace apenas un año, nadie se preocupaba por esto. Pero ahora es un problema serio. ¿Cómo vamos a abordar las leyes relacionadas?”, concluyó.
Qué tan seguro es usar la IA como reemplazo de los psicólogos
Un estudio reciente de la Universidad de Stanford reveló que los chatbots de inteligencia artificial pueden reproducir estigmas, sesgos e incluso actitudes discriminatorias al tratar temas de salud mental, especialmente con personas de grupos vulnerables o marginados.
Los investigadores concluyeron que, por ahora, los modelos de IA no están preparados para reemplazar a profesionales humanos en el área del bienestar emocional y psicológico.
“El problema está en los matices”, señaló Nick Haber, autor principal del estudio. “No es solo que los modelos de lenguaje sean inadecuados para hacer terapia, sino que debemos cuestionarnos qué rol deberían tener exactamente en este ámbito”, agregó.

Aunque el informe reconoce que estas herramientas podrían servir como apoyo complementario en ciertos contextos clínicos, advierte que aún enfrentan serias limitaciones técnicas, éticas y legales.
Tanto el testimonio de Sam Altman como las conclusiones del estudio apuntan a una recomendación clara: no usar sistemas como ChatGPT como reemplazo de la terapia profesional.
Si bien pueden ser útiles para responder preguntas generales o brindar apoyo momentáneo, aún no cuentan con la preparación ni la regulación necesarias para proteger adecuadamente la salud mental de los usuarios.
Últimas Noticias
Paso a paso para esconder chats en WhatsApp con un código secreto: funciona en Android, iPhone y PC
Los usuarios deben ingresar a ‘Ajustes‘, luego a ‘Privacidad‘ y allí activar la función de chats restringidos

Cómo sería el próximo PlayStation 6: costaría 499 dólares y tendría IA
La próxima consola de videojuegos de Sony también ofrecería una mayor eficiencia energética

Los 10 mejores juegos gratis que hay en Steam, según la inteligencia artificial
Dota 2 y Counter-Strike 2 lideran la lista debido a que cuentan con una enorme base de jugadores activos y mantienen una sólida presencia en el ámbito de los deportes electrónicos

Crea cuentos infantiles ilustrados para tus hijos con Google: usa IA y es totalmente gratuito
Con esta función, los usuarios pueden generar en cuestión de segundos historias personalizadas para sus hijos, como cuentos para dormir, relatos que aborden miedos, entre otras temáticas

Modo Among Us en WhatsApp: cómo se activa
Los usuarios tienen la opción de personalizar las notificaciones de la aplicación móvil para que suenen como la banda sonora del videojuego
