Guardar
El debate por la influencia
El debate por la influencia de la inteligencia artificial en bienestar social, educación y liderazgo se cruza con una advertencia generalizada: los algoritmos carecen de juicio moral y de comprensión genuina del contexto - (Imagen Ilustrativa Infobae)

La expansión de la inteligencia artificial en aplicaciones cotidianas no solo redefine la productividad o la gestión de información, sino que está alterando la forma en que las personas exploran su mundo afectivo.

El auge de los chatbots capaces de simular relaciones emocionales ha reavivado alertas sobre los límites de la tecnología y su impacto en la salud psicológica. En distintos ámbitos, desde la salud mental hasta el ocio digital, estos sistemas automatizados ganan terreno como interlocutores disponibles las veinticuatro horas.

Los chatbots utilizados como ayuda emocional

Organizaciones como OpenAI confirman que más de un millón de usuarios en todo el mundo recurren cada semana a herramientas como ChatGPT para hablar sobre pensamientos suicidas.

La inteligencia artificial transforma la
La inteligencia artificial transforma la vida afectiva, pero expertos alertan sobre riesgos emocionales - (Imagen Ilustrativa Infobae)

El fenómeno trasciende los avances técnicos y sitúa en primer plano inquietudes profundas: ¿qué ocurre cuando máquinas programadas intercambian mensajes en tono comprensivo o afectuoso? ¿Qué consecuencias tiene la confianza depositada en sistemas que no poseen experiencia ni empatía genuina?

Entre los especialistas crecen las voces que cuestionan la relación de dependencia que se origina con los asistentes virtuales diseñados para responder a emociones detectadas mediante sofisticados algoritmos.

El riesgo de utilizar la IA como acompañante sentimental

El catedrático Daniel Innerarity, de la Universidad del País Vasco, expone que la popularidad de la IA ha llevado a las personas a atribuirle rasgos humanos. “El problema aparece cuando alguien deposita su confianza en una máquina antes que en un ser humano”, sostuvo el académico.

Un caso ocurrido en Noruega, reportado por diversos medios europeos, ilustra las posibles consecuencias de la dependencia emocional hacia los chatbots. Hace un par de meses Stein-Erik Soelberg, de 56 años, mantuvo extensas conversaciones con ChatGPT sobre temas personales y emocionales.

La IA carece de emociones,
La IA carece de emociones, por lo que resulta peligroso atribuirle a sus respuestas cualidades de pareja sentimental o ayuda psicológica - (Imagen Ilustrativa Infobae)

Luego de ese periodo, Soelberg asesinó a su madre y posteriormente se suicidó. Investigaciones locales señalaron que el hombre se había refugiado casi exclusivamente en la interacción digital, lo que contribuyó a su aislamiento social y deterioro psicológico.

A juicio de la investigadora Karen Vergara, de la ONG Amaranta en Chile, no todas las personas transitan este fenómeno del mismo modo. Mientras ciertas poblaciones adaptan la IA a su vida diaria y exploran su utilidad, otras quedan rezagadas, condicionadas por la brecha digital y la ausencia de acceso estable a internet o dispositivos. “Existen espacios sociales en los que la IA ni siquiera constituye una opción, y su omisión agranda desigualdades ya arraigadas”.

Investigaciones del MIT Media Lab distinguen al menos tres perfiles entre quienes interactúan con sistemas de IA conversacional: usuarios vulnerables afectados por la soledad, personas emocionalmente dependientes y usuarios casuales que emplean los chatbots sin establecer un lazo intenso. Para los primeros grupos, la interacción con una inteligencia no humana puede acentuar la pérdida de vínculos reales y fomentar rutinas obsesivas.

En ese contexto, la visión crítica sobre cómo se presenta y percibe la IA cobra peso. Mercedes Siles, catedrática de Álgebra, propuso comparar la IA con una “caja de papeles” similares a las galletas de la fortuna: las respuestas diarias pueden transformarse en una referencia indispensable y alterar la rutina psicológica de quien consulta.

Cómo la inteligencia artificial replica
Cómo la inteligencia artificial replica vínculos humanos y desafía las fronteras de la empatía - (Imagen ilustrativa Infobae)

“El riesgo radica en atribuir autoridad a lo que no es más que un sistema estadístico”, explicó Siles, y añadió que los algoritmos, al igual que el lenguaje, pueden amplificar sesgos sociales, sexistas o de origen.

La inteligencia artificial no es humana

Además, la tendencia a otorgar formas y rasgos humanos a la AI, como manos, pies o cabeza, profundiza la confusión. Innerarity advirtió que la mayoría de los dispositivos inteligentes carecen de cualquier aspecto antropomorfo, aunque el imaginario popular y la cultura visual insistan en representarlos con aspecto humano. Ese malentendido puede distorsionar la percepción pública sobre el verdadero alcance de la tecnología.

Desde el sector empresarial, Conchita Díaz, responsable de formación en inteligencia artificial y Big Data para Google Cloud en Europa y Medio Oriente, aporta otro matiz: por más avanzados que resulten los modelos generativos y las plataformas conversacionales, la empatía auténtica permanece como atributo exclusivo del ser humano.

Díaz reconoció que la IA puede facilitar procesos y resolver tareas complejas, pero carece de criterio ético, discernimiento situacional o comprensión emocional genuina. En los entornos sensibles como la salud, la educación o la conducción de equipos, el aporte insustituible sigue en manos humanas.