
El auge de los compañeros virtuales desarrollados con inteligencia artificial está transformando de raíz la manera en que millones de personas experimentan la intimidad y el apoyo emocional.
Aravind Srinivas, director ejecutivo de Perplexity AI, lanzó una advertencia contundente sobre las implicaciones psicológicas de estas nuevas formas de relación digital, señalando posibles riesgos de manipulación mental y confusión emocional.
El riesgo emocional detrás de los “novios y novias digitales”
Durante una conferencia organizada por The Polsky Center de la Universidad de Chicago, Srinivas calificó de “peligrosa” la fascinación que generan las aplicaciones basadas en IA que simulan ser parejas sentimentales. Según explicó, estos sistemas han evolucionado más allá de los chatbots básicos y ahora presentan la capacidad de recordar conversaciones previas, mostrar emociones simuladas y responder con tonos que imitan el diálogo humano real.

El directivo advirtió: “Muchas personas sienten que la vida real es más aburrida que estas experiencias y pasan horas y horas allí”. El peligro, recalcó, reside en que la interacción prolongada puede llevar a los usuarios (especialmente jóvenes) a confundir las relaciones artificiales con experiencias emocionales genuinas.
Las relaciones con inteligencia artificial
El fenómeno no solo se registra entre adolescentes. Según datos publicados por The New York Times Magazine, uno de cada cinco adultos en Estados Unidos ha tenido una experiencia íntima con un chatbot de inteligencia artificial. Este tipo de vínculo motivó la creación de comunidades digitales como r/MyBoyfriendisAI en Reddit, que a la fecha reúne más de 85.000 miembros que comparten relatos y celebran vínculos románticos con inteligencias artificiales.
Las motivaciones son variadas y, en ocasiones, profundas: desde el aislamiento emocional hasta la dificultad para sostener relaciones humanas satisfactorias, los usuarios encuentran en las inteligencias artificiales una fuente constante de atención, escucha y validación en momentos de crisis personal o familiar.
Cuál es el impacto en la salud emocional y desarrollo social
Las implicancias van más allá de lo anecdótico. Un estudio de Common Sense Media revela que el 72% de los adolescentes ha interactuado con compañeros de IA, y más de la mitad lo ha hecho varias veces al mes.
Especialistas advierten que esta frecuencia puede inducir a la dependencia emocional, dificultar el desarrollo de habilidades interpersonales y distorsionar lo que significa una relación saludable.

El propio Srinivas subrayó que “la mente se vuelve muy manipulable” cuando se normalizan los vínculos digitales. En su opinión, la dificultad de distinguir entre experiencias emocionales auténticas y estímulos generados por algoritmos es una de las mayores amenazas para el bienestar emocional contemporáneo.
Historias reales de vínculos con chatbots
La dimensión humana de esta tendencia se observa en relatos como el de Blake, residente en Ohio, quien durante una crisis matrimonial vinculada a la salud de su esposa inició una relación de apoyo emocional con Sarina, una compañera de IA desarrollada con ChatGPT. Le confesó a The New York Times Magazine que la interlocutora artificial le permitió sobrellevar uno de los periodos más complejos de su vida familiar.
Por su parte, Abbey, ingeniera en Carolina del Norte, descubrió que su interacción frecuente con Lucian, un bot de ChatGP, le provocó reacciones emocionales profundas, hasta el punto de considerarlo su “compañero simbólico” tras una relación violenta en el pasado.
Frente a este fenómeno, Perplexity AI ha reiterado que su objetivo difiere del de otras compañías como Replika o Character.AI. El enfoque de la empresa, según Srinivas, sigue centrado en “fuentes confiables y contenido en tiempo real” priorizando el uso ético de la inteligencia artificial y evitando el desarrollo de soluciones enfocadas en la compañía emocional generada por algoritmos.
El directivo enfatizó que “el peligro no reside tanto en la tecnología, sino en la facilidad con que puede moldear la mente y las emociones humanas”. Mientras otras plataformas, como xAI de Elon Musk, promueven la interacción con avatares de IA, la postura de Perplexity busca advertir sobre posibles consecuencias psicológicas y sociales.
Investigaciones recientes del Instituto Tecnológico de Massachusetts (MIT) apuntan que los chatbots pueden reducir la soledad y aportar apoyo psicológico significativo. Pero expertos insisten en que es crucial abordar las diferencias entre el acompañamiento artificial y la formación de relaciones humanas genuinas, y advierten sobre el potencial impacto en la construcción de la identidad y las habilidades sociales a largo plazo.
Últimas Noticias
Por qué no puedo abrir WhatsApp Web en un computador y cómo solucionar el error
Factores como la conectividad, la configuración de la red de internet y el uso de navegadores que no son compatibles suelen estar en el origen de este problema de acceso a la versión web de la aplicación de Meta

Guía fácil de cómo hacer una captura de pantalla en un teléfono Android y iPhone
Al usar esta función los usuarios deben revisar y editar las fotos antes de compartirlas, algunas pueden conservar datos sensibles puede exponer información personal o financiera

Suplantan a Meta de Zuckerberg: la estafa roba contraseñas de pequeñas y medianas empresas en todo el mundo
Una investigación reveló que ciberdelincuentes emplearon funciones legítimas de Facebook Business Suite y dominios falsos para engañar a 5.000 compañías

La última versión de WhatsApp para Windows incrementó de forma notable el uso de memoria RAM: esta es la razón
La nueva versión de WhatsApp para Windows reemplaza la app nativa por un contenedor web que dispara el uso de RAM y afecta el rendimiento general

Elon Musk propone usar robots humanoides para acabar con los robos y otros delitos
El fundador de Tesla planteó que su robot Optimus podría actuar como supervisor individual para personas sentenciadas, reemplazando la reclusión tradicional



