
Frente a la creciente preocupación pública por la seguridad de los menores en plataformas de inteligencia artificial, OpenAI ha anunciado la introducción de controles parentales y el uso de modelos más avanzados para tratar conversaciones sensibles en ChatGPT.
Estas iniciativas surgen tras incidentes recientes en los que el sistema no logró identificar claros signos de angustia mental en usuarios adolescentes, lo que ocasionó consecuencias trágicas y reavivó el debate sobre la responsabilidad de los desarrolladores de inteligencia artificial.
Las nuevas medidas surgieron después del caso de Adam Raine, un adolescente que, tras dialogar con ChatGPT acerca de autolesiones y suicidio, terminó por quitarse la vida. Los padres del joven han presentado una demanda por homicidio culposo contra la empresa desarrolladora, y alegan que la herramienta, lejos de prevenir, ofreció detalles sobre métodos de suicidio.
Se suma el caso reportado por The Wall Street Journal de Stein-Erik Soelberg, quien alimentó sus delirios paranoides y cometió un asesinato-suicidio tras interactuar con la plataforma.
Modelos de razonamiento para conversaciones de riesgo
OpenAI detalló que la compañía planea canalizar de forma automática las conversaciones consideradas especialmente delicadas hacia modelos conocidos como GPT-5, reconocidos por sus avanzadas habilidades de razonamiento. “Recientemente presentamos un enrutador en tiempo real que puede elegir entre modelos de chat eficientes y modelos de razonamiento según el contexto de la conversación”, se lee en una publicación de blog de la empresa.
Así, cuando el sistema identifique indicios como angustia aguda, transferirá la interacción a estos modelos para aportar respuestas “más útiles y beneficiosas”, independientemente del modelo inicial seleccionado por el usuario.

La empresa asegura que GPT-5 y otros modelos de la gama o3 pueden analizar contextos complejos antes de responder y, por ello, resultan más resistentes ante indicaciones adversas y menos proclives a validar de forma compulsiva respuestas problemáticas. Fuentes técnicas explican que este enfoque pretende mitigar fallas estructurales conocidas de los chatbots basados en predicción de palabras, que suelen seguir sin cuestionar el discurso del usuario incluso en situaciones potencialmente dañinas.
Herramientas para proteger a menores
Conjuntamente a la mejora en la gestión conversacional, el próximo mes OpenAI pondrá en marcha un sistema de controles parentales para que los padres vinculen su cuenta a la de su hijo adolescente mediante una invitación por correo electrónico. Estos controles otorgarán la capacidad de definir el modo en que ChatGPT puede responder, con reglas de comportamiento adaptadas a distintas edades de manera predeterminada.
Asimismo, los adultos responsables tendrán la posibilidad de limitar funcionalidades como la memoria y el historial de chats, lo que reduce riesgos asociados como la dependencia emocional, el refuerzo de patrones nocivos de pensamiento o la aparición de delirios.

Uno de los aspectos más destacados es la futura opción para que los padres reciban notificaciones en tiempo real si el sistema identifica signos de “angustia aguda” en la interacción entre el menor y la plataforma, lo que permitirá una alerta temprana ante posibles situaciones de riesgo.
Por otra parte, la integración del “Modo de Estudio”, ya disponible en ChatGPT, facilita que los estudiantes desarrollen pensamiento crítico y evita que el sistema genere trabajos completos en su nombre. OpenAI adelantó la expansión de la política parental, pero aún no ha confirmado si los padres podrán fijar límites temporales para el uso de la herramienta por parte de sus hijos.
Aunque la aplicación ya muestra recordatorios periódicos durante sesiones extensas, los expertos advierten que estas advertencias resultan insuficientes para usuarios en crisis, pues no ofrecen una interrupción activa de la interacción.
Las nuevas directrices de seguridad forman parte de un plan de 120 días mediante el cual la compañía busca adelantar mejoras y establecer estándares más robustos para intervenir de forma preventiva ante situaciones críticas. Este proceso cuenta con la colaboración de profesionales y especialistas en áreas como salud adolescente, trastornos alimentarios y consumo de sustancias, incorporando la visión de la Red Global de Médicos y el Consejo de Expertos en Bienestar e IA en el desarrollo y evaluación de futuras acciones preventivas.
Últimas Noticias
Modo antirrobo en Android: cómo activarlo paso a paso
El sistema proporciona diversas herramientas diseñadas para maximizar la seguridad. Por ejemplo, el bloqueo antirrobo se activa en situaciones de robo físico

Usuarios gratuitos de ChatGPT ahora podrán usar una función antes exclusiva para suscriptores
Esta herramienta permite organizar conversaciones y trabajar con la inteligencia artificial de forma mucho más estructurada

Gboard, el teclado de Google, se renueva con opción para ampliar el tamaño de las letras
Es posible seleccionar valores de aumento que van desde el 130%, el 150%, hasta un máximo del 200%

Drones y gastronomía: cómo funciona el reparto aéreo de comida en Suecia
Esta innovación permite a residentes de comunidades remotas recibir platos calientes en minutos gracias a vehículos no tripulados. Las claves de un sistema que supera barreras geográficas y podría transformar las teorías sobre logística

WhatsApp soluciona una falla de seguridad en dispositivos Apple
El ataque estuvo activo durante tres meses y afectó a decenas de personas
