
Durante años, las advertencias sobre la adicción tecnológica se centraron en las redes sociales, los videojuegos y los teléfonos inteligentes. Pero ahora, un nuevo tipo de interacción digital empieza a despertar señales de alerta, y es precisamente la que se da entre humanos y modelos de lenguaje como ChatGPT.
Según una investigación conjunta del MIT Media Lab y OpenAI, utilizar intensivamente esta inteligencia artificial podría afectar el bienestar emocional y social de ciertos usuarios, en especial de aquellos más comprometidos con el sistema.

Uusuarios podría crear con ChatGPT vínculos no saludables
ChatGPT se volvió una herramienta habitual para millones de personas. Está presente en oficinas, escuelas, redacciones, consultas legales y hasta en conversaciones personales durante el tiempo libre.
Su habilidad para mantener diálogos fluidos y ofrecer respuestas contextualizadas lo ha convertido en una suerte de asistente digital confiable. Pero esa misma capacidad para simular compañía, empatía o entendimiento, también puede generar vínculos que no siempre son saludables.
Quiénes son las personas más afectadas con la IA

La investigación, titulada ‘Cómo los chatbots de IA afectan nuestro bienestar social y emocional: nuevos hallazgos de investigación’, analizó a más de 5.000 personas y detectó indicios de una relación problemática en un segmento específico de usuarios.
Los investigadores identificaron comportamientos compatibles con una posible adicción digital, como “preocupación, síntomas de abstinencia, pérdida de control y modificación del estado de ánimo”.
Estos indicios no eran generalizados, pero sí se presentaban con claridad en los llamados “usuarios avanzados”, definidos como personas que pasan largos períodos interactuando con ChatGPT, muchas veces varias veces al día y en múltiples contextos.
Cuando no representa un peligro el uso de ChatGPT

Este grupo no representa al grueso de los usuarios. De hecho, la gran mayoría utiliza ChatGPT de manera esporádica, para resolver dudas puntuales o acelerar tareas cotidianas.
Es decir, no se trata de un riesgo extendido, pero sí de una advertencia sobre cómo ciertas dinámicas de uso intensivo pueden derivar en patrones similares a los que se observan en otros tipos de dependencia tecnológica.
El riesgo emocional del Modo de Voz Avanzado
Uno de los aspectos más llamativos del estudio fue el rol del Modo de Voz Avanzado, una funcionalidad que permite mantener conversaciones en tiempo real con la inteligencia artificial.
Dentro de los usuarios que accedieron a esta herramienta, se detectó una mayor propensión a establecer un vínculo afectivo con el modelo.
Aunque los investigadores aclararon que se trata de una fracción reducida del total de usuarios, consideraron significativo el hecho de que algunas personas pudieran llegar a atribuir cualidades humanas a la IA, al punto de sentirse acompañadas o emocionalmente comprendidas por ella.
Esto plantea preguntas difíciles: ¿Qué ocurre cuando un sistema automatizado empieza a reemplazar interacciones humanas? ¿Hasta qué punto una conversación con una máquina puede satisfacer necesidades afectivas? ¿Y cuál es el límite entre una herramienta útil y una presencia constante que interfiere con la vida cotidiana?
Dependencia emocional por el uso de la IA
La investigación del MIT Media Lab y OpenAI no ofrece respuestas definitivas, pero deja en claro que el uso intensivo de herramientas de IA debe evaluarse no solo desde la eficiencia o la innovación tecnológica, también desde el impacto emocional y psicológico.
En palabras de los propios autores del estudio, el fenómeno merece seguimiento y análisis más profundos, ya que “el grupo que mostró signos de dependencia era tan reducido que sería complejo estudiar su impacto a gran escala”, aunque no por ello menos relevante.
ChatGPT no fue diseñado como sustituto emocional, pero su estructura conversacional y su disponibilidad constante lo colocan en una posición singular.
A medida que más personas interactúan con modelos como este, los investigadores sugieren prestar atención no solo a lo que hacen, mas bien a cómo nos hacen sentir.
Una herramienta útil puede convertirse en una compañía persistente, y esa compañía, si no se administra con cuidado, podría ocupar espacios que antes estaban reservados a vínculos humanos.
ultimas
Este es el electrodoméstico de 229 dólares que tuesta pan usando algoritmos con IA:
Una tostadora inteligente es capaz de identificar el tipo de pan y ajustar el tiempo de tostado para dorarlo adecuadamente

Los 10 trucos secretos de WhatsApp que pocos conocen y que protegen tus chats de los chismosos
Con nuevas opciones como transcripción de audios y envío en HD, la app se adapta a las necesidades actuales de los usuarios digitales

Se puede o no usar auriculares Bluetooth durante los vuelos: esto dicen las aerolíneas
Desde la duración de la batería hasta el tipo de sistema del avión, estos factores determinan si tu experiencia será óptima o frustrante

Samsung Galaxy A: cuatro herramientas con IA que se destacan en la nueva serie
Desde la mejora automática de imágenes hasta la eliminación de objetos, contamos los detalles del nuevo lanzamiento de Samsung

Imágenes al estilo Ghibli: cómo hacerlas gratis en WhatsApp con Meta AI
Esta IA no permite cargar fotos como base para la creación de nuevas imágenes. En su lugar, utiliza el texto proporcionado para generar una adaptación al estilo solicitado
