El despliegue de nuevos sistemas de predicción de edad en el acceso a chatbots de inteligencia artificial ha llevado a que plataformas como ChatGPT requieran que las personas adultas validen su identidad, incluso mediante selfis en tiempo real o documentos oficiales, cuando existen dudas sobre su edad. Según detalló el medio original, OpenAI ha comenzado a aplicar de forma automática protecciones adicionales dentro de ChatGPT para menores de 18 años, mientras que Anthropic exige estrictamente la verificación de mayoría de edad para utilizar su asistente Claude, bloqueando el uso a quienes no cumplan el requisito.
De acuerdo con la información publicada, OpenAI ha implementado un modelo que evalúa a cada usuario en busca de señales relacionadas con su rango de edad. Este sistema procesa datos como los temas que se abordan en las conversaciones y los horarios en que los perfiles interactúan con el chatbot. Al detectar factores que indican la posible presencia de adolescentes, ChatGPT activa de inmediato restricciones que modifican la experiencia, suprimiendo o limitando la exposición a contenidos clasificados como sensibles. Entre estos contenidos se encuentran imágenes que incluyan violencia gráfica, descripciones sangrientas, desafíos virales asociados a posibles conductas peligrosas, juegos de rol con implicaciones sexuales, románticas o violentas, así como mensajes que promuevan estándares de belleza poco realistas, dietas restrictivas o humillación corporal. La medida busca que la herramienta de inteligencia artificial resulte segura y apropiada para usuarios menores de edad.
El medio original explicó que, si tras el análisis automatizado persiste la sospecha sobre la edad de la persona usuaria, ChatGPT prefiere aplicar un criterio cautelar y activa siempre las protecciones dirigidas a adolescentes. Para revertir este estado, la persona deberá proporcionar pruebas de edad válidas, ya sea mostrando su rostro ante la cámara o presentando un documento identificativo.
En el caso de Anthropic, la compañía ha optado por una política más restrictiva. Reportó el medio que la firma requiere que todas las personas que accedan al chatbot Claude sean mayores de 18 años, fundamentando la decisión en posibles impactos negativos derivados del uso de inteligencia artificial en menores. El proceso para crear una cuenta en la plataforma exige siempre la verificación de edad. Asimismo, Claude cuenta con clasificadores automáticos que, durante las conversaciones, evalúan la posibilidad de que quien interactúe no alcance la mayoría de edad, permitiendo así la desactivación inmediata de la cuenta si se confirma este diagnóstico.
El medio informó que Anthropic se encuentra además fortaleciendo su sistema de detección con una herramienta capaz de identificar señales sutiles que puedan revelar la edad real de los usuarios, con el objetivo de minimizar la posibilidad de que adolescentes accedan a la plataforma mediante falsedades o engaños.
Estas estrategias buscan abordar preocupaciones crecientes sobre los efectos de la inteligencia artificial en usuarios jóvenes. Las empresas tecnológicas han orientado sus desarrollos no solo a restringir el uso de chatbots a personas adultas, sino también a crear filtros automáticos y exigir verificaciones más rigurosas cuando existe incertidumbre sobre la edad de quien utiliza estos sistemas. Según consignó el medio, la tendencia apunta a reforzar tanto las barreras técnicas como los procesos de supervisión, para salvaguardar a la población adolescente en los entornos digitales dominados por la inteligencia artificial emergente.
Así, la activación de restricciones automáticas, la verificación de identidad obligatoria y la aplicación de sistemas de detección avanzados representan actualmente las respuestas principales de OpenAI y Anthropic frente a los retos de proteger a los menores de edad ante potenciales riesgos asociados al uso de chatbots en línea.


