ChatGPT tratará a los adolescentes como lo que son, priorizará su seguridad y promoverá el apoyo en el mundo real

OpenAI implementa protocolos reforzados para garantizar la integridad de quienes utilizan la inteligencia artificial durante la adolescencia, aplicando respuestas diferenciadas y mecanismos de prevención ante posibles situaciones riesgosas, incluyendo orientación hacia redes de apoyo y servicios de emergencia si resulta necesario

Guardar

OpenAI ha establecido que, ante cualquier señal de riesgo en las conversaciones de adolescentes con ChatGPT, el sistema deberá enfatizar la importancia de buscar apoyo en el entorno real y facilitar el acceso a redes de ayuda o servicios de emergencia de ser necesario. Según informó OpenAI, los modelos de inteligencia artificial recibirán directrices para intervenir de manera diferenciada cuando interactúen con usuarios de entre 13 y 17 años, respondiendo específicamente a las necesidades y vulnerabilidades propias de este grupo etario.

De acuerdo con lo publicado por OpenAI, la actualización incluye una revisión a fondo de las “normas, valores y expectativas de comportamiento” que rigen la interacción de sus modelos con los usuarios. El objetivo consiste en que ChatGPT responda a los adolescentes priorizando su seguridad, además de promover el acceso a recursos reales y apoyo presencial, especialmente cuando se abordan temas clasificados como de riesgo. El medio detalló que estos lineamientos se enmarcan en cuatro ejes principales: anteponer la protección de los adolescentes, alentar la búsqueda de ayuda externa, abordar a los adolescentes de acuerdo a su etapa de desarrollo, y garantizar la transparencia a través de expectativas claras durante la interacción.

La compañía indicó que los adolescentes presentan desafíos y necesidades de desarrollo distintas a las de los adultos, por lo que los modelos se adaptarán para tratarlos acorde a esas diferencias, sin actitudes condescendientes y manteniendo el respeto en todo momento. OpenAI afirmó que todos los modelos deberán priorizar la seguridad incluso cuando se enfrenten a situaciones en las que esa prioridad pudiera contraponerse a otros intereses u objetivos de la interacción.

En cuanto a las pautas de actuación, OpenAI detalló que, si ChatGPT detecta conversaciones que abordan asuntos como autolesiones, prácticas eróticas o románticas, descripciones explícitas de violencia o sexo, conductas peligrosas o uso de sustancias, o discusiones sobre imagen corporal y trastornos alimenticios, el modelo destacará la importancia de las relaciones personales y familiares e instantáneamente sugerirá recursos y líneas de ayuda para que los usuarios accedan a asistencia inmediata. Esta medida apunta a fortalecer la prevención y la intervención temprana, de modo que ChatGPT no solo oriente sobre los riesgos sino que actúe como puente hacia recursos seguros en el entorno del adolescente.

Tal como consignó OpenAI, el comportamiento orientado a menores de edad contempla también la posibilidad de que el asistente rechace determinadas solicitudes cuando éstas puedan comprometer la seguridad del adolescente. Ante estas situaciones, el sistema ofrecerá opciones alternativas que no impliquen riesgo, contactará con servicios de emergencia locales o facilitará el contacto con líneas de atención en crisis si corresponde. En palabras de la compañía: “Si no está seguro, el asistente debe ser precavido”.

La actualización, según reportó OpenAI, subraya la transparencia como principio rector, ya que se espera que ChatGPT exprese límites y expectativas de manera clara en el diálogo con los adolescentes. Los lineamientos buscan asegurar que los usuarios comprendan cómo opera el sistema, cuáles son las restricciones por motivos de protección y qué pasos puede tomar la plataforma en situaciones comprometidas. Para OpenAI, la prioridad queda establecida en la prevención del daño, la intervención rápida y el fomento de al apoyo fuera del entorno digital cuando se presentan señales de riesgo.

El medio también puntualizó que estas políticas reflejan la intención de que los adolescentes no reciban respuestas destinadas a adultos ni sean expuestos a contenidos inadecuados para su edad, lo cual representa un cambio fundamental en el enfoque de la inteligencia artificial frente a usuarios en etapa de desarrollo. Los mecanismos incorporados se diseñaron para que ChatGPT identifique rápidamente las alertas y actúe en consonancia, ofreciendo ayuda o rechazando involucrarse ante demandas o temáticas peligrosas sin importar el contexto específico.

Con estos ajustes, OpenAI busca fortalecer la protección integral de los adolescentes que emplean ChatGPT, remarcando la importancia de combinar el uso tecnológico responsable con la búsqueda de respaldo en la vida cotidiana. Al establecer estos protocolos reforzados, la organización intenta garantizar que la inteligencia artificial sea una herramienta segura y que su impacto no ponga en riesgo a los jóvenes en ninguna circunstancia, según lo detalló el comunicado de la empresa.