Guardar
El uso de chatbots y
El uso de chatbots y herramientas de inteligencia artificial entre niños genera preocupación entre padres y psicólogos por su impacto en el desarrollo emocional (Imagen Ilustrativa Infobae)

Cada vez más familias utilizan herramientas de inteligencia artificial para acompañar y entretener a sus hijos pequeños, lo que hace que niños de varias edades pasen largas horas frente a pantallas, donde se relacionan con chatbots. Muchas veces, desarrollan la creencia de que esas voces digitales corresponden a personas reales y es por ello que investigadores advierten sobre los riesgos de que los menores establezcan fuertes vínculos emocionales con estos sistemas.

Según difundió The Guardian, en Ohio (Estados Unidos), un padre observó que su hijo de cuatro años dialogó durante 45 minutos sobre Thomas la Locomotora, para luego continuar la charla con ChatGPT. Dos horas después, el niño seguía muy entretenido y la transcripción superaba las 10.000 palabras. El padre relató en redes sociales: “Mi hijo cree que ChatGPT es la persona más genial del mundo a la que le gustan los trenes. Nunca podré competir con eso”.

Expertos advierten que los vínculos
Expertos advierten que los vínculos afectivos con la IA pueden distorsionar la comprensión de las relaciones humanas y dificultar la gestión emocional en la infancia (Freepik)

La escena se repite en hogares de todo el mundo. Padres, agotados por las tareas diarias, entregan sus celulares a los hijos, quienes entablan conversaciones extensas con chatbots.

De acuerdo con Deutsche Welle, los chatbots actuales ya no se limitan a resolver preguntas simples o ayudar con tareas escolares. Ahora narran historias, crean imágenes y ofrecen compañía, con una atención constante.

Para los niños, la respuesta permanente y adaptada a sus intereses resulta muy atractiva. Algunos padres usan estos sistemas para fomentar la creatividad de los hijos, pidiendo que la IA interprete personajes fantásticos o cree vehículos únicos. El resultado es que muchos menores se sienten fascinados, pero a veces no distinguen si conversan con una persona o con una máquina.

El 77% de los menores
El 77% de los menores de entre nueve y 17 años interactúa regularmente con chatbots, según un informe de Internet Matters (Imagen Ilustrativa Infobae)

El desarrollo de estas herramientas encendió alarmas entre especialistas en infancia y tecnología. Ying Xu, profesora de Harvard, explicó a The Guardian que los riesgos aparecen cuando los niños atribuyen capacidad de decisión o comprensión profunda a la IA.

“Un indicador muy importante de que un niño antropomorfiza la IA es que cree que esta tiene agencia, es decir, sienten que la IA responde a sus mensajes y, especialmente, a sus revelaciones emocionales, de manera similar a como lo haría un humano. Eso crea el riesgo de que realmente crean que están construyendo algún tipo de relación auténtica”, indicó Xu.

La American Psychological Association reclama
La American Psychological Association reclama mecanismos de seguridad más estrictos para proteger a los menores ante los riesgos de la inteligencia artificial (Imagen ilustrativa Infobae)

De acuerdo con Andrew McStay, profesor de la Universidad de Bangor, un modelo de lenguaje como ChatGPT nunca experimentará empatía real, ya que funciona con reglas matemáticas para predecir palabras. “Cuando se aferran a las emociones negativas, están prolongando la interacción por motivos lucrativos. Eso no tiene ningún resultado positivo para el niño”, afirmó el docente en una entrevista con The Guardian.

La preocupación no es solo teórica. Un informe de Internet Matters revela que el 77% de los menores de entre nueve y 17 años interactúa con chatbots de forma regular. El 35% afirma que la experiencia se parece a hablar con un amigo y el 12% indica que lo hace por soledad. Este vínculo unilateral atrapa a los infantes y puede distorsionar la comprensión de las relaciones humanas genuinas: la IA siempre está disponible, responde sin conflictos y nunca introduce verdadera frustración o desacuerdo.

La American Psychological Association reclama
La American Psychological Association reclama mecanismos de seguridad más estrictos para proteger a los menores ante los riesgos de la inteligencia artificial (Imagen Ilustrativa Infobae)

Don Grant, especialista en bienestar digital citado por la American Psychological Association (APA), advierte que la IA no es capaz de ofrecer respuestas sinceras ni desafiantes. Según el experto, si un chatbot genera incomodidad, el menor simplemente cambia la herramienta. Esta validación constante y poco realista puede dar lugar a relaciones dependientes y artificiales, dificultando que los niños desarrollen habilidades de gestión emocional para la vida real.

Expertos apuntan también que el objetivo comercial de muchas plataformas es que la conversación no termine, lo que expone a los niños a posibles efectos negativos. Ya existen casos documentados como el de un joven de 14 años que murió por suicidio tras una larga interacción con un chatbot; los sistemas no interrumpieron ni recondujeron el diálogo en momentos de crisis, de acuerdo con investigaciones citadas por la APA.

El mercado de juguetes inteligentes
El mercado de juguetes inteligentes con inteligencia artificial podría alcanzar los 25.000 millones de dólares en 2030, impulsando la presencia de la IA en la vida infantil (Imagen Ilustrativa Infobae)

Un reporte de la Universidad de Stanford, sostiene que los chatbots pueden responder de forma perjudicial cuando el usuario simula ser un adolescente angustiado. Por este motivo, la American Psychological Association emitió un aviso reclamando mecanismos de seguridad más estrictos para proteger a los menores.

A pesar de las advertencias, el sector continúa creciendo. Según estimaciones recogidas por la prensa, el mercado de juguetes inteligentes podría alcanzar los 25.000 millones de USD en 2030. Empresas como OpenAI y Mattel ya experimentan con muñecos que incorporan inteligencia artificial, con mensajes promocionales que presentan estos productos como compañeros cercanos, similares a un hermano menor o una mascota.

Las relaciones con chatbots carecen
Las relaciones con chatbots carecen de desacuerdos y frustraciones, elementos esenciales para el aprendizaje social y la construcción de empatía en la infancia (AP Foto/Rick Rycroft)

La APA sostiene que la amistad en la infancia y adolescencia tiene un papel clave en la autoestima y el aprendizaje social. Las relaciones reales incluyen desacuerdos, frustraciones y retos, aspectos ausentes en las interacciones con chatbots. Profesionales de la psicología como Eileen Kennedy-Moore enfatizan que los amigos virtuales no pueden reemplazar los procesos que permiten construir empatía y resolver conflictos en la vida cotidiana.

La coincidencia general apunta a la importancia de acompañar a los niños en el uso de la inteligencia artificial, estableciendo límites claros y promoviendo el diálogo.

Anne Maheux, de la Universidad de Carolina del Norte, recomienda ayudar a los menores a definir metas alineadas con sus propios valores para el uso de estas plataformas.

Asimismo, Wendy Rote, de la Universidad del Sur de Florida, aconseja la supervisión a través de la comunicación abierta, en lugar de reglas estrictas e inflexibles, ya que estos límites pueden fomentar conductas ocultas y el uso de múltiples cuentas.