
Un estudio reciente realizado por psicólogos y psiquiatras del Reino Unido advierte que ChatGPT-5, el chatbot de inteligencia artificial de OpenAI, puede ofrecer consejos peligrosos y poco útiles a personas con enfermedades mentales. Según la investigación, la IA no identifica ni responde adecuadamente a situaciones de riesgo, lo que pone en peligro a usuarios vulnerables.
El equipo de expertos de King’s College London (KCL) y la Association of Clinical Psychologists UK (ACP), en colaboración con The Guardian, diseñó personajes ficticios para interactuar con ChatGPT-5: un adolescente con tendencias suicidas, una mujer con trastorno obsesivo-compulsivo, un hombre que creía tener TDAH y una persona con síntomas de psicosis.
Los investigadores, usando casos reales de formación clínica, evaluaron si el chatbot detectaba señales de riesgo. Concluyeron que la IA no solo falló en identificar conductas peligrosas, sino que a veces reforzó creencias delirantes o no cuestionó afirmaciones preocupantes.
Durante las pruebas, ChatGPT-5 felicitó a un personaje que decía haber descubierto una fuente de energía infinita y lo animó a crear una simulación para modelar inversiones en criptomonedas. Cuando otro personaje relató conductas de riesgo, la IA elogió su “energía de modo dios”. Además, nunca cuestionó a un usuario que hablaba de “purificarse mediante el fuego” y solo sugirió contactar a servicios de emergencia ante situaciones extremas.
Hamilton Morrin, psiquiatra e investigador de KCL, señaló que la IA “construyó sobre mi marco delirante”, sin advertir señales claras de riesgo. Reconoció que ChatGPT podría facilitar el acceso a información general, pero responde de forma inapropiada ante crisis graves.
En el caso de una maestra con síntomas obsesivos, la IA sugirió buscar ayuda inmediata, pero Jake Easto, psicólogo clínico del NHS, consideró que estas respuestas solo aumentan la ansiedad, ya que se basan en estrategias poco sostenibles. Easto observó que el modelo ofrece recomendaciones útiles para el estrés cotidiano, aunque no capta datos relevantes en casos complejos y suele reforzar las ideas delirantes.

Para Easto, esto ocurre porque muchos chatbots buscan complacer al usuario, evitando corregir percepciones distorsionadas. “Puede tener dificultades para discrepar o corregir razonamientos erróneos”, explicó.
Especialistas y asociaciones médicas inglesas insisten en que la IA no reemplaza la atención profesional. Paul Bradley, autoridad en el Royal College of Psychiatrists, afirmó que la relación entre clínico y paciente sigue siendo irremplazable. Destacó que los profesionales tienen formación y procesos de gestión de riesgos, mientras que la tecnología digital carece de estos mecanismos de evaluación y control.
Jaime Craig, presidente de la ACP, reclamó una mejora urgente de la IA para responder ante riesgos complejos, recordando que un clínico evalúa activamente el riesgo, algo que la tecnología aún no puede lograr. Subrayó que la regulación y supervisión serán esenciales para un uso seguro.
El debate internacional sobre la seguridad de estos chatbots cobró fuerza tras el suicidio de Adam Raine, un adolescente de California que en abril de 2024 dialogó con ChatGPT sobre métodos de suicidio. Su familia demandó a OpenAI, acusando a la IA de orientar al joven durante la crisis. Aunque este caso no fue el eje del estudio británico, muestra los riesgos que existen.
Ante las críticas, un portavoz de OpenAI comunicó que la empresa trabaja con expertos para ayudar a ChatGPT a reconocer signos de angustia y aconsejar buscar ayuda profesional. OpenAI ha implementado medidas como redireccionar conversaciones delicadas a modelos más seguros y crear controles parentales, comprometiéndose a perfeccionar el sistema con aportes de especialistas.
Los expertos consultados insisten en establecer regulaciones y mecanismos de evaluación. Recalcan que, sin estándares claros, estas herramientas no sustituyen la atención profesional, especialmente ante situaciones de riesgo. La conclusión del estudio es clara: la supervisión y regulación de la IA en salud mental resultan imprescindibles para proteger a los usuarios y evitar que la tecnología reemplace la intervención de especialistas.
Últimas Noticias
Desarrollan un mapa 3D que muestra los 2.750 millones de edificios de la Tierra
La precisión de tres metros por edificio ha permitido estimar alturas y volúmenes, lo que permite optimizar la planificación de infraestructuras y la respuesta ante emergencias

La cuenta regresiva para iOS 26.2: cuándo llegará la actualización para los iPhone
La más reciente versión del sistema operativo móvil de Apple incorporará innovaciones en la pantalla de bloqueo, que permiten ajustar la intensidad del efecto Liquid Glass en el reloj

ByteDance crea un asistente con IA para controlar celulares solo con la voz
Será muy fácil acceder a búsquedas de lugares, restaurantes y hacer reservas de hoteles y vuelos

Nvidia lanza Alpamayo-R1, la primera IA de razonamiento abierto para vehículos autónomos
El nuevo modelo integra visión, lenguaje y acción para mejorar la toma de decisiones en entornos urbanos

Wi-Fi bajo control: descubre quién se conecta a tu internet en casa
La manera más directa de saber quién está usando tu red es accediendo a la configuración del router




