Guardar
Tinder implementa verificación de identidad
Tinder implementa verificación de identidad con escaneo facial biométrico. (Foto: Tinder)

Las aplicaciones de citas de como Tinder enfrentan un nuevo desafío: el chatfishing. Se trata de una práctica en la que usuarios reales utilizan herramientas de inteligencia artificial, como ChatGPT, para escribir mensajes, mantener conversaciones o incluso seducir a otras personas. A diferencia del catfish, donde el engaño se basa en identidades falsas, este fenómeno introduce una manipulación más sutil, hacer creer a alguien que está conectando emocionalmente con una persona auténtica, cuando en realidad las palabras provienen de un algoritmo.

El auge del chatfishing coincide con un aumento en el uso cotidiano de la IA para tareas personales. Desde redactar correos hasta buscar trabajo o escribir mensajes románticos, la frontera entre lo humano y lo automatizado se ha vuelto difusa. En el terreno sentimental, esa línea borrosa plantea dilemas éticos y emocionales sobre la autenticidad de las relaciones digitales.

Aunque muchas personas ven la IA como una ayuda para comunicarse mejor o vencer la timidez, su uso en el ámbito amoroso ya ha generado casos de decepción. Historias compartidas en medios internacionales muestran cómo algunos usuarios descubren, tras semanas de conexión emocional, que la persona del otro lado nunca fue quien parecía ser.

Usuarios de Tinder usan IA
Usuarios de Tinder usan IA para interactuar. (radiomedios.mx)

Cuando el algoritmo se convierte en “cupido”

El chatfishing se diferencia del engaño tradicional porque no implica necesariamente la creación de perfiles falsos. Quienes lo practican suelen ser personas reales que recurren a la IA para elaborar respuestas más atractivas o ingeniosas. Con solo introducir la conversación en un generador de texto, obtienen mensajes personalizados capaces de mantener el interés de sus interlocutores.

En redes como Reddit, abundan testimonios de usuarios que admiten haber utilizado chatbots para “mejorar su rendimiento” en Tinder o Bumble. Algunos aseguran que solo buscan inspiración para iniciar una charla, mientras que otros confiesan haber automatizado completamente la conversación para ahorrar tiempo o evitar el rechazo.

Para las víctimas, la sensación es distinta: el descubrimiento de que sus emociones fueron dirigidas por un algoritmo genera frustración, pérdida de confianza y una nueva capa de desconfianza hacia las aplicaciones de citas.

Usuarios de Tinder empiezan a
Usuarios de Tinder empiezan a usar la IA para tener un mejor resultado al entablar una conversación. (Imagen Ilustrativa Infobae)

Un cansancio que abre la puerta a la automatización

El chatfishing se enmarca en un contexto donde muchos usuarios experimentan fatiga digital. Según una encuesta de Forbes, cerca del 80% de quienes usan apps de citas dicen sentirse agotados por la rutina de hacer match, mantener conversaciones y no llegar a nada concreto.

Esa “fatiga del dating” lleva a algunos a delegar parte del proceso en la inteligencia artificial. Automatizar los mensajes o dejar que un asistente escriba por ellos parece una solución cómoda para destacar entre miles de perfiles sin invertir tanto esfuerzo emocional.

Sin embargo, esta práctica también vacía de autenticidad la experiencia. Las relaciones digitales, ya de por sí filtradas por algoritmos de compatibilidad, corren el riesgo de transformarse en simulaciones donde los sentimientos se generan, editan y corrigen mediante IA.

Tinder. (Shutterstock)
Tinder. (Shutterstock)

Las aplicaciones también apuestan por la inteligencia artificial

Las propias plataformas de citas han comenzado a integrar funciones basadas en IA para mejorar la experiencia de los usuarios. Tinder, por ejemplo, prueba sistemas que sugieren posibles conexiones en función de los intereses detectados en las fotos del usuario. Bumble ha ido más allá: en su versión para encontrar amistades, ofrece un asistente que ayuda a romper el hielo con mensajes predefinidos generados por IA.

Aunque estas herramientas buscan facilitar la interacción, los expertos advierten que también pueden normalizar el uso de la inteligencia artificial en las conversaciones personales. En la práctica, eso podría hacer más difícil distinguir cuándo una respuesta proviene de una persona o de un programa.