
Cada vez más familias utilizan herramientas de inteligencia artificial para acompañar y entretener a sus hijos pequeños, lo que hace que niños de varias edades pasen largas horas frente a pantallas, donde se relacionan con chatbots. Muchas veces, desarrollan la creencia de que esas voces digitales corresponden a personas reales y es por ello que investigadores advierten sobre los riesgos de que los menores establezcan fuertes vínculos emocionales con estos sistemas.
Según difundió The Guardian, en Ohio (Estados Unidos), un padre observó que su hijo de cuatro años dialogó durante 45 minutos sobre Thomas la Locomotora, para luego continuar la charla con ChatGPT. Dos horas después, el niño seguía muy entretenido y la transcripción superaba las 10.000 palabras. El padre relató en redes sociales: “Mi hijo cree que ChatGPT es la persona más genial del mundo a la que le gustan los trenes. Nunca podré competir con eso”.

La escena se repite en hogares de todo el mundo. Padres, agotados por las tareas diarias, entregan sus celulares a los hijos, quienes entablan conversaciones extensas con chatbots.
De acuerdo con Deutsche Welle, los chatbots actuales ya no se limitan a resolver preguntas simples o ayudar con tareas escolares. Ahora narran historias, crean imágenes y ofrecen compañía, con una atención constante.
Para los niños, la respuesta permanente y adaptada a sus intereses resulta muy atractiva. Algunos padres usan estos sistemas para fomentar la creatividad de los hijos, pidiendo que la IA interprete personajes fantásticos o cree vehículos únicos. El resultado es que muchos menores se sienten fascinados, pero a veces no distinguen si conversan con una persona o con una máquina.

El desarrollo de estas herramientas encendió alarmas entre especialistas en infancia y tecnología. Ying Xu, profesora de Harvard, explicó a The Guardian que los riesgos aparecen cuando los niños atribuyen capacidad de decisión o comprensión profunda a la IA.
“Un indicador muy importante de que un niño antropomorfiza la IA es que cree que esta tiene agencia, es decir, sienten que la IA responde a sus mensajes y, especialmente, a sus revelaciones emocionales, de manera similar a como lo haría un humano. Eso crea el riesgo de que realmente crean que están construyendo algún tipo de relación auténtica”, indicó Xu.

De acuerdo con Andrew McStay, profesor de la Universidad de Bangor, un modelo de lenguaje como ChatGPT nunca experimentará empatía real, ya que funciona con reglas matemáticas para predecir palabras. “Cuando se aferran a las emociones negativas, están prolongando la interacción por motivos lucrativos. Eso no tiene ningún resultado positivo para el niño”, afirmó el docente en una entrevista con The Guardian.
La preocupación no es solo teórica. Un informe de Internet Matters revela que el 77% de los menores de entre nueve y 17 años interactúa con chatbots de forma regular. El 35% afirma que la experiencia se parece a hablar con un amigo y el 12% indica que lo hace por soledad. Este vínculo unilateral atrapa a los infantes y puede distorsionar la comprensión de las relaciones humanas genuinas: la IA siempre está disponible, responde sin conflictos y nunca introduce verdadera frustración o desacuerdo.

Don Grant, especialista en bienestar digital citado por la American Psychological Association (APA), advierte que la IA no es capaz de ofrecer respuestas sinceras ni desafiantes. Según el experto, si un chatbot genera incomodidad, el menor simplemente cambia la herramienta. Esta validación constante y poco realista puede dar lugar a relaciones dependientes y artificiales, dificultando que los niños desarrollen habilidades de gestión emocional para la vida real.
Expertos apuntan también que el objetivo comercial de muchas plataformas es que la conversación no termine, lo que expone a los niños a posibles efectos negativos. Ya existen casos documentados como el de un joven de 14 años que murió por suicidio tras una larga interacción con un chatbot; los sistemas no interrumpieron ni recondujeron el diálogo en momentos de crisis, de acuerdo con investigaciones citadas por la APA.

Un reporte de la Universidad de Stanford, sostiene que los chatbots pueden responder de forma perjudicial cuando el usuario simula ser un adolescente angustiado. Por este motivo, la American Psychological Association emitió un aviso reclamando mecanismos de seguridad más estrictos para proteger a los menores.
A pesar de las advertencias, el sector continúa creciendo. Según estimaciones recogidas por la prensa, el mercado de juguetes inteligentes podría alcanzar los 25.000 millones de USD en 2030. Empresas como OpenAI y Mattel ya experimentan con muñecos que incorporan inteligencia artificial, con mensajes promocionales que presentan estos productos como compañeros cercanos, similares a un hermano menor o una mascota.

La APA sostiene que la amistad en la infancia y adolescencia tiene un papel clave en la autoestima y el aprendizaje social. Las relaciones reales incluyen desacuerdos, frustraciones y retos, aspectos ausentes en las interacciones con chatbots. Profesionales de la psicología como Eileen Kennedy-Moore enfatizan que los amigos virtuales no pueden reemplazar los procesos que permiten construir empatía y resolver conflictos en la vida cotidiana.
La coincidencia general apunta a la importancia de acompañar a los niños en el uso de la inteligencia artificial, estableciendo límites claros y promoviendo el diálogo.
Anne Maheux, de la Universidad de Carolina del Norte, recomienda ayudar a los menores a definir metas alineadas con sus propios valores para el uso de estas plataformas.
Asimismo, Wendy Rote, de la Universidad del Sur de Florida, aconseja la supervisión a través de la comunicación abierta, en lugar de reglas estrictas e inflexibles, ya que estos límites pueden fomentar conductas ocultas y el uso de múltiples cuentas.
Últimas Noticias
Un grupo de hackers afirma haber accedido a datos internos de Nintendo
La supuesta filtración de información confidencial por parte de Crimson Collective genera preocupación en la industria y entre los simpatizantes de la compañía japonesa

Jensen Huang, CEO de Nvidia, califica de “inteligente” el acuerdo entre su rival AMD y OpenAI
La operación implica la cesión de acciones a cambio de avances en hardware de inteligencia artificial
Apple corrige un error de su IA que afectaba a los iPhone 17
El alcance del problema fue global y afectó especialmente a los usuarios más entusiastas, quienes son los primeros en adoptar las novedades

Apple anuncia el final de Clips, su aplicación de edición de videos
Lanzada originalmente en 2017, Clips nació como una solución para editar videos cortos, agregar filtros, música y efectos especiales

Cómo actúan los virus, troyanos, gusanos y todos los tipos de malware que acechan en internet
Una de las vías más frecuentes de propagación de malware son los correos electrónicos engañosos
