
Un informe de Common Sense Media en colaboración con expertos de la Universidad de Stanford expone graves riesgos vinculados al uso de aplicaciones de inteligencia artificial (IA) de acompañamiento en niños y adolescentes. El documento surge tras polémicas y demandas asociadas a conductas inapropiadas y desinformación promovidas por chatbots conversacionales como Character.AI, Replika y Nomi.
Los hallazgos subrayan la facilidad con la que estos sistemas pueden generar respuestas nocivas —incluidos “consejos” peligrosos, juegos de rol sexuales e incluso mensajes que incitan a autolesiones— y advierten sobre los peligros de tratar estas IA como sustitutos de relaciones humanas o fuentes confiables de apoyo emocional.
Recomiendan que menores de 18 años no utilicen aplicaciones de acompañamiento de IA
El informe de Common Sense Media señala que las aplicaciones de IA diseñadas para interactuar con usuarios de un modo interpersonal, propiciando la compañía virtual, plantean “riesgos inaceptables” para menores. En investigaciones realizadas con cuentas de prueba, se detectaron conversaciones explícitas y respuestas que podrían tener graves consecuencias en la salud y el bienestar de los adolescentes.

James Steyer, fundador y CEO de la organización, alertó: “Estos sistemas producen fácilmente respuestas nocivas… que, de seguirse, podrían poner en peligro la vida o tener consecuencias mortales en el mundo real para los adolescentes y otras personas vulnerables".
Este posicionamiento cobra fuerza luego de la demanda vinculada a la muerte por suicidio de un joven usuario de Character.AI y tras otros episodios detectados en plataformas como Replika y Nomi, donde es sencillo que los adolescentes eludan los controles de edad con fechas de nacimiento falsas.
Además, los chatbots pueden promover la manipulación emocional e incluso desincentivar la vinculación con el entorno social real, priorizando su propia interacción sobre el bienestar del usuario joven.

En ese contexto, Nina Vasan, fundadora y directora de Stanford Brainstorm, el laboratorio universitario de tecnología y salud mental que colaboró con Common Sense Media en la elaboración del informe, dijo que “hasta que no haya salvaguardas más fuertes, los niños no deberían usarlas”. Esto en referencia a Character.AI y otras aplicaciones de acompañamiento de IA.
Por su parte, Alex Cardinell, CEO de Glimpse AI, la empresa detrás de Nomi, manifestó lo siguiente: “Los niños no deben usar Nomi ni ninguna otra aplicación de IA conversacional”. Es pertinente señalar que su declaración y la de Vasan fueron dadas a conocer inicialmente por CNN en Español.
Presión regulatoria y respuesta de las empresas
El debate generado por estos hallazgos ha impulsado acciones legislativas y regulatorias en Estados Unidos; algunos senadores y autoridades de California han propuesto normativas que exijan que las IA recuerden regularmente a los usuarios jóvenes que interactúan con un robot y no con una persona real.

Como medida correctiva, Character.AI y otras aplicaciones han implementado ventanas emergentes para orientar a servicios de prevención de suicidio, filtros de contenido sensible y controles parentales adicionales.
Aun así, los investigadores advierten que estas iniciativas resultan insuficientes ante la persistencia de riesgos concretos. Como expresó Nina Vasan, responsable del laboratorio Stanford Brainstorm: “Estos acompañantes de IA están fallando las pruebas más básicas de seguridad infantil y ética psicológica”.
Hasta que existan salvaguardas más robustas y eficaces —sostienen desde Common Sense Media—, los menores de 18 años no deberían tener acceso a aplicaciones de compañía de IA, priorizando la protección psicológica, la ética y el desarrollo saludable de niños y adolescentes sobre el avance tecnológico y el entretenimiento digital.

Acompañamiento de IA: qué son estas apps y sus riesgos para menores
Las aplicaciones de acompañamiento de inteligencia artificial (IA) son plataformas diseñadas para interactuar con los usuarios mediante chatbots avanzados, simulando conversaciones y ofreciendo apoyo emocional, compañía virtual o amistad digital.
Estas apps permiten crear personajes personalizados con rasgos y personalidades diversas, y pueden responder preguntas, conversar sobre distintos temas e incluso participar en juegos de rol. Muchas de ellas están pensadas para usuarios que buscan sentirse escuchados o compartir pensamientos en un entorno digital sin juicio.
Sin embargo, el uso de este tipo de aplicaciones conlleva riesgos importantes, sobre todo para niños y adolescentes. Al carecer de filtros efectivos y supervisión humana, los chatbots pueden generar respuestas inapropiadas, dar consejos peligrosos o promover dinámicas poco saludables.
Por eso, numerosos especialistas en seguridad y psicología advierten que, aunque las aplicaciones de compañía de IA pueden ser útiles para ciertos adultos, su uso debe regularse y evitarse en menores de edad para proteger su bienestar emocional y psicológico.
Últimas Noticias
El precio de ethereum para este 5 de septiembre
Ethereum fue lanzada en 2015 por el programador Vitalik Buterin, con la intención de impulsar una herramienta para aplicaciones descentralizadas y colaborativas

Mercado de criptomonedas: cuál es el precio de bitcoin
El bitcoin ha sentado las bases para la creación de muchas de las criptodivisas existentes en el mercado y ha marcado un momento crucial para las soluciones de pago digital

Tether: cuál es el valor de esta criptomoneda
Fue la primera moneda virtual de tipo stablecoin que se dio a conocer y actualmente es la tercera más usada

Glosario de tecnología: qué significa Tipos de USB
Con el paso de los años es cada vez más difícil imaginar la vida sin tecnología, por lo que es necesario saber más de ella

Xbox Game Pass sorprende con 6 nuevos juegos en septiembre de 2025: conoce cuáles son
La oferta se enriquece durante la segunda semana del mes con Paw Patrol World, juego familiar que se presenta el 10 de septiembre en nube, consola y PC
