
La expansión de la inteligencia artificial en aplicaciones cotidianas no solo redefine la productividad o la gestión de información, sino que está alterando la forma en que las personas exploran su mundo afectivo.
El auge de los chatbots capaces de simular relaciones emocionales ha reavivado alertas sobre los límites de la tecnología y su impacto en la salud psicológica. En distintos ámbitos, desde la salud mental hasta el ocio digital, estos sistemas automatizados ganan terreno como interlocutores disponibles las veinticuatro horas.
Los chatbots utilizados como ayuda emocional
Organizaciones como OpenAI confirman que más de un millón de usuarios en todo el mundo recurren cada semana a herramientas como ChatGPT para hablar sobre pensamientos suicidas.

El fenómeno trasciende los avances técnicos y sitúa en primer plano inquietudes profundas: ¿qué ocurre cuando máquinas programadas intercambian mensajes en tono comprensivo o afectuoso? ¿Qué consecuencias tiene la confianza depositada en sistemas que no poseen experiencia ni empatía genuina?
Entre los especialistas crecen las voces que cuestionan la relación de dependencia que se origina con los asistentes virtuales diseñados para responder a emociones detectadas mediante sofisticados algoritmos.
El riesgo de utilizar la IA como acompañante sentimental
El catedrático Daniel Innerarity, de la Universidad del País Vasco, expone que la popularidad de la IA ha llevado a las personas a atribuirle rasgos humanos. “El problema aparece cuando alguien deposita su confianza en una máquina antes que en un ser humano”, sostuvo el académico.
Un caso ocurrido en Noruega, reportado por diversos medios europeos, ilustra las posibles consecuencias de la dependencia emocional hacia los chatbots. Hace un par de meses Stein-Erik Soelberg, de 56 años, mantuvo extensas conversaciones con ChatGPT sobre temas personales y emocionales.

Luego de ese periodo, Soelberg asesinó a su madre y posteriormente se suicidó. Investigaciones locales señalaron que el hombre se había refugiado casi exclusivamente en la interacción digital, lo que contribuyó a su aislamiento social y deterioro psicológico.
A juicio de la investigadora Karen Vergara, de la ONG Amaranta en Chile, no todas las personas transitan este fenómeno del mismo modo. Mientras ciertas poblaciones adaptan la IA a su vida diaria y exploran su utilidad, otras quedan rezagadas, condicionadas por la brecha digital y la ausencia de acceso estable a internet o dispositivos. “Existen espacios sociales en los que la IA ni siquiera constituye una opción, y su omisión agranda desigualdades ya arraigadas”.
Investigaciones del MIT Media Lab distinguen al menos tres perfiles entre quienes interactúan con sistemas de IA conversacional: usuarios vulnerables afectados por la soledad, personas emocionalmente dependientes y usuarios casuales que emplean los chatbots sin establecer un lazo intenso. Para los primeros grupos, la interacción con una inteligencia no humana puede acentuar la pérdida de vínculos reales y fomentar rutinas obsesivas.
En ese contexto, la visión crítica sobre cómo se presenta y percibe la IA cobra peso. Mercedes Siles, catedrática de Álgebra, propuso comparar la IA con una “caja de papeles” similares a las galletas de la fortuna: las respuestas diarias pueden transformarse en una referencia indispensable y alterar la rutina psicológica de quien consulta.

“El riesgo radica en atribuir autoridad a lo que no es más que un sistema estadístico”, explicó Siles, y añadió que los algoritmos, al igual que el lenguaje, pueden amplificar sesgos sociales, sexistas o de origen.
La inteligencia artificial no es humana
Además, la tendencia a otorgar formas y rasgos humanos a la AI, como manos, pies o cabeza, profundiza la confusión. Innerarity advirtió que la mayoría de los dispositivos inteligentes carecen de cualquier aspecto antropomorfo, aunque el imaginario popular y la cultura visual insistan en representarlos con aspecto humano. Ese malentendido puede distorsionar la percepción pública sobre el verdadero alcance de la tecnología.
Desde el sector empresarial, Conchita Díaz, responsable de formación en inteligencia artificial y Big Data para Google Cloud en Europa y Medio Oriente, aporta otro matiz: por más avanzados que resulten los modelos generativos y las plataformas conversacionales, la empatía auténtica permanece como atributo exclusivo del ser humano.
Díaz reconoció que la IA puede facilitar procesos y resolver tareas complejas, pero carece de criterio ético, discernimiento situacional o comprensión emocional genuina. En los entornos sensibles como la salud, la educación o la conducción de equipos, el aporte insustituible sigue en manos humanas.
Últimas Noticias
Xiaomi inicia el despliegue global de HyperOS 3, basado en Android 16, con nueva interfaz
Entre las funciones más llamativas se encuentra ‘Hyper Island’, un sistema de notificaciones y eventos inspirado en la Dynamic Island de Apple

Glosario de tecnología: ¿Qué es y cómo funciona Arduino?
Conocer el significado de nuevas palabras ayudará a incrementar el conocimiento y vocabulario por igual

Google lanzará nuevo hardware Fitbit en 2026
El potencial lanzamiento de nuevos productos Fitbit podría coincidir con la consolidación de la aplicación Fitbit Coach

Este es el robot humanoide de Noetix Robotics que cuesta lo mismo que un iPhone
Bumi puede caminar, mantener el equilibrio, bailar, responder a comandos de voz y cuenta con una programación visual fácil de usar mediante arrastrar y soltar

Microsoft prepara nueva herramienta en Windows 11 para diagnosticar errores que provocan fallos del sistema
La nueva función de diagnóstico proactivo de Windows 11 analizará la memoria del sistema tras un reinicio inesperado para detectar el origen del fallo


