
Los adultos mayores se encuentran siendo víctimas de un tipo de fraude telefónico cada vez más común. Estafadores engañan a abuelos con voces clonadas con inteligencia artificial (IA), donde solicitan grandes sumas de dinero para solucionar una emergencia.
En estos casos, los estafadores se hacen pasar por un miembro de la familia, con frecuencia un nieto, y les aseguran que están en apuros, involucrados en un accidente de tránsito o en problemas legales, y necesitan dinero urgentemente.
Según datos del FBI, durante 2023 se reportaron alrededor de 200 estafas de este tipo, con pérdidas cercanas a los 2 millones de dólares. Este tipo de estafa se llevó al cine en la película Thelma, donde se presenta una escena en la que la protagonista recibe una llamada de su supuesto nieto que le solicita 10.000 dólares para pagar una fianza.
Cómo estafan a los abuelos a través de una llamada telefónica

Las estafas de emergencia familiar empiezan generalmente con una llamada telefónica inesperada. El estafador, que se hace pasar por un miembro de la familia, crea una situación de pánico al afirmar que el nieto o hija está involucrado en un accidente grave o que ha tenido problemas con la ley.
De acuerdo con la National Cybersecurity Alliance, este tipo de llamada busca apoderarse de las emociones de la víctima, quien se siente obligada a actuar rápidamente. El “nieto” solicita dinero urgente para cubrir fianzas, honorarios legales o gastos médicos, insistiendo en la necesidad de realizar el pago de inmediato.
De acuerdo con datos de la Comisión Federal de Comercio de Estados Unidos (FTC) el estafador instruye a la víctima para que envíe el dinero de maneras poco convencionales, como a través de pagos con criptomonedas o la compra de tarjetas de regalo. En algunos casos, se solicita que el dinero sea entregado en efectivo o enviado por un mensajero.

Para hacer la estafa más efectiva, cibercriminales suelen contar con información personal sobre la víctima y los miembros de la familia, lo que les permite construir una historia más creíble. Ahora, la IA ha añadido un nuevo nivel de sofisticación, porque pueden clonar las voces de los nietos y hacer que la llamada suene aún más real.
Por qué usan inteligencia artificial para manipular a los adultos mayores
Según los expertos, la inteligencia artificial, en particular la tecnología deepfake, ha permitido que los estafadores mejoren sus métodos. Mediante el uso de software que imita voces humanas, los criminales pueden generar llamadas que suenan sorprendentemente reales.

Esta tecnología permite reproducir la voz de los nietos con una precisión tal que es difícil para los abuelos detectar el fraude. En muchos casos, la víctima no tiene motivos para dudar de la identidad del interlocutor, porque la voz clonada parece provenir directamente de su ser querido.
El uso de IA también les permite personalizar aún más la estafa, utilizando información obtenida de redes sociales u otros medios en línea para hacer que la historia parezca más auténtica. Existen algunas señales que podrían delatar el fraude, como errores en el tono o el ritmo de la voz clonada.
Por qué los abuelos son el objetivo principal de esta estafa
La estafa de un familiar en apuros está específicamente diseñada para explotar las vulnerabilidades de personas vulnerables como los adultos mayores, quienes a carecen de la misma familiaridad con la tecnología que las generaciones más jóvenes.

Además, los abuelos suelen estar más dispuestos a ayudar a sus nietos, lo que los convierte en blancos ideales para este tipo de fraudes. La idea de una emergencia familiar genera una respuesta emocional inmediata que limita la capacidad de la víctima para razonar.
El hecho de que los estafadores insistan en mantener la transacción en secreto, alegando que el caso es confidencial, juega un papel crucial en el éxito de la estafa.
Las víctimas, por temor a medirse en más problemas o hacer que la situación empeore, siguen las instrucciones sin consultar con otros miembros de la familia. Esto hace que sea aún más difícil detectar el fraude a tiempo.
ultimas
Nvidia trae un nuevo proyecto para que los robots piensen y actúen como humanos este 2025
Jensen Huang, CEO de la compañía, señaló en el evento Nvidia GTC de este año que todo el mundo debería prestar mucha atención a este sector de la robótica con IA porque podría convertirse en la industria más grande de todas

Nvidia GTC 2025: las 4 propuestas de Jensen Huang para potenciar la IA y ahorrar energía
La implementación de cada desarrollo permite que las empresas sean más eficientes al usar sistemas de inteligencia artificial y puedan procesar con mayor rapidez grandes cantidades de datos

Netflix: cómo solucionar cuando el audio de una película se entrecorta, suena agudo o está distorsionado
Este problema es común que se presente en el televisor y está relacionado con la conexión a internet o una mala configuración

En video: así sería la PlayStation 9, según los planes de Sony en los 90´s
Desde hace décadas, los desarrolladores de videojuegos han soñado con ofrecer una experiencia inmersiva de realidad virtual

Nvidia GTC 2025: Jensen Huang cree que la IA necesita una capacidad de cómputo hasta 100 veces mayor
El CEO de Nvidia manifestó que para agilizar este proceso, su equipo de ingenieros ha desarrollado una aplicación en Omniverse Blueprint que permite planificar, optimizar y simular fábricas de IA
