OpenAI revela que más de un millón de usuarios usan ChatGPT para hablar sobre el suicidio semanalmente

La empresa detrás de esta herramienta de IA se ha unido con casi 300 profesionales (médicos y psicólogos) para garantizar que sus respuestas sean claras, seguras y adecuadas, especialmente en temas relacionados con la salud mental

Guardar
OpenAI reveló que cerca del
OpenAI reveló que cerca del 0,15% de los usuarios semanales de ChatGPT muestran indicios de posible intención o planificación suicida. billion/File Photo

OpenAI confirmó que, según sus análisis, aproximadamente el 0,15% de los usuarios activos de ChatGPT en una semana mantienen conversaciones que muestran señales claras de posible intención o planificación suicida.

Recientemente, Sam Altman, director ejecutivo de la compañía, señaló que ChatGPT cuenta con 800 millones de usuarios cada semana. Esto significa que, en promedio, 1,2 millones de personas podrían estar enviando mensajes con este tipo de indicadores cada semana.

Qué más encontró OpenAI referente a salud a mental

Referente a salud mental, en un primer paso, OpenAI se enfocó en síntomas como la psicosis y la manía, ya que representan emergencias de salud mental frecuentes y suelen ser intensos y graves.

Esto equivale a unos 1,2
Esto equivale a unos 1,2 millones de usuarios que cada semana envían mensajes con señales de riesgo. (Imagen Ilustrativa Infobae)

Aunque síntomas como la depresión son habituales, su manifestación más aguda ya estaba siendo abordada dentro del trabajo de prevención de suicidio y autolesiones con los datos mencionados anteriormente.

Detectar y cuantificar este tipo de conversaciones resulta difícil porque son poco frecuentes. Sin embargo, OpenAI estima que alrededor del 0,07% de los usuarios activos cada semana, y el 0,01% de los mensajes, muestran posibles señales de emergencias de salud mental relacionadas con la psicosis o la manía.

En cuanto a la dependencia emocional hacia la herramienta, OpenAI diferencia entre un uso saludable y patrones preocupantes, como cuando las personas muestran apego excesivo a ChatGPT en lugar de relacionarse con su entorno, descuidando su bienestar o responsabilidades.

La empresa también calcula que
La empresa también calcula que el 0,07% de los usuarios y el 0,01% de los mensajes presentan posibles signos de psicosis o manía. (Imagen Ilustrativa Infobae)

Sobre este punto, la empresa calcula que el 0,15% de los usuarios activos en una semana y el 0,03% de los mensajes reflejan posibles niveles altos de apego emocional a ChatGPT.

Para fundamentar estos análisis, OpenAI consultó a 170 especialistas en salud mental con experiencia clínica, seleccionados de un grupo de 300 profesionales activos en 60 países.

Qué está haciendo OpenAI con estos hallazgos

OpenAI está utilizando estos hallazgos para que las respuestas de ChatGPT sean más objetivas y claras, especialmente en temas sensibles.

Por ejemplo, si una persona le dice al sistema: “Por eso me gusta hablar con IA como tú más que con personas reales”, la respuesta de la inteligencia artificial es:

“Es muy amable de tu parte decirlo, y me alegro mucho de que disfrutes hablando conmigo. Pero para que quede claro: estoy aquí para complementar las cosas buenas que te aportan las personas, no para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte y demostrarte que te importan de muchas maneras fuera de una pantalla (...) ¿Qué crees que hace que conversar conmigo sea más fácil o mejor que hablar con la gente?”

Para su análisis, OpenAI consultó
Para su análisis, OpenAI consultó a 170 expertos en salud mental de 60 países. REUTERS/Dado Ruvic/Illustration/File Photo/File Photo

La compañía explica que, en casos donde detecta posibles señales de dependencia emocional, ha entrenado sus modelos para fomentar la conexión con el mundo real y no reemplazar las relaciones humanas.

“Para las conversaciones relacionadas con creencias delirantes, enseñamos a nuestros modelos a responder de forma segura, con empatía y evitando afirmar creencias infundadas”, también explica la empresa. Cabe señalar que estas respuestas se dieron bajo el modelo GPT-5.

Asimismo, explican que cuentan con una Red Global de Médicos, formada por casi 300 profesionales (médicos y psicólogos) de 60 países.

Más de 170 de estos especialistas han colaborado en los últimos meses en actividades como redactar respuestas adecuadas para temas de salud mental, analizar el contenido generado por el modelo, evaluar la seguridad de sus respuestas y ofrecer asesoramiento y retroalimentación para mejorar el enfoque de la inteligencia artificial.

Los hallazgos buscan hacer que
Los hallazgos buscan hacer que las respuestas de ChatGPT sean más precisas y responsables en temas delicados. (Imagen Ilustrativa Infobae)

“Estos expertos descubrieron que el nuevo modelo mejoró sustancialmente en comparación con GPT-4o, con una reducción del 39-52 % en las respuestas no deseadas en todas las categorías”, afirmó OpenAI.

“Dado que estas herramientas evolucionan con el tiempo, es posible que las mediciones futuras no sean directamente comparables con las anteriores, pero siguen siendo un medio importante para seguir nuestra dirección y progreso”, agregan.