
La popularidad de ChatGPT a nivel global ha crecido de gran forma, porque muchos usuarios recurren a esta herramienta para redactar correos, programar, crear imágenes, automatizar tareas, responder preguntas o corregir textos.
No obstante, un informe de OpenAI advierte que, más allá de estos usos legítimos, la plataforma ha sido empleada para impulsar campañas maliciosas, generar contenido sesgado y monitorizar conversaciones en redes sociales.
Desde febrero del año pasado, OpenAI ha interrumpido la actividad de 40 redes que infringieron los términos de uso de ChatGPT. Según la compañía dirigida por Sam Altman, estas redes, localizadas en países como China, Rusia, Corea y Camboya, utilizaron el chatbot para desplegar ciberataques, estafas y operaciones de influencia encubiertas.
Pese a que ChatGPT prohíbe la creación de este tipo de contenido, porque va en contra de sus políticas, el informe de OpenAI advierte que, si un usuario logra engañar al sistema, podría generar correos o anuncios con apariencia legítima.
De qué forma los ciberdelincuentes utilizan ChatGPT para cometer delitos
En el caso de Corea, los ciberdelincuentes desarrollaron malware y una infraestructura de comando y control mediante el uso de la inteligencia artificial. Por su parte, una red con operaciones en Camboya, Birmania y Nigeria intentó emplear el chatbot para ejecutar campañas fraudulentas dirigidas a engañar a personas.
También, el informe señala que en regímenes autoritarios se ha recurrido a ChatGPT para crear herramientas destinadas a la monitorización masiva de redes sociales.

Además, los modelos de OpenAI han sido utilizados para generar contenido en plataformas como YouTube y TikTok, con el objetivo de difundir desinformación y manipular la opinión pública mediante información sesgada.
Los expertos en ciberseguridad insisten en que los peligros más relevantes asociados al uso inadecuado de ChatGPT son el phishing y el malvertising. El primero consiste en el envío de mensajes diseñados para engañar a los usuarios y obtener datos confidenciales, mientras que el segundo hace referencia a anuncios falsos que redirigen a sitios web maliciosos.
Cómo ChatGPT puede ayudar a identificar estafas
A pesar de estos riesgos, la propia OpenAI subraya que su chatbot se emplea con mayor frecuencia para identificar estafas que para cometerlas. La compañía estima que “ChatGPT se utiliza para identificar timos hasta tres veces más que para estafas”, según datos recogidos en su informe.

Al copiar textos dudosos en ChatGPT, los usuarios pueden recibir una evaluación sobre la autenticidad de correos, anuncios o comunicaciones que podrían esconder intentos de phishing, suplantación de identidad o propuestas fraudulentas.
El modelo puede destacar señales de alerta como errores de redacción, solicitudes inusuales de datos personales o enlaces a sitios no verificados. Esta capacidad facilita la identificación rápida de riesgos, sobre todo para personas sin conocimientos avanzados de ciberseguridad.
La inteligencia artificial permite automatizar la revisión de grandes volúmenes de mensajes en empresas. Al entrenar modelos como ChatGPT con casos de estafas conocidas, se fortalece la capacidad de filtrado y prevención, ayudando a los grupos de seguridad informática a identificar patrones poco habituales.
Qué precauciones se deben considerar al usar IA en la vida cotidiana

El uso de herramientas de inteligencia artificial demanda una evaluación crítica constante por parte de los usuarios. Aunque ChatGPT puede ayudar a detectar estafas digitales, su análisis no es infalible y puede cometer errores tanto en la identificación de amenazas como en la interpretación de mensajes legítimos.
Por esto, los expertos sugieren no tomar decisiones basadas únicamente en el resultado que ofrece el chatbot, sino contrastar la información con fuentes confiables y emplear software de ciberseguridad actualizado.
Asimismo, es importante no compartir datos personales sensibles, contraseñas o información financiera a través de sistemas automatizados, porque existe el riesgo de que estos datos sean interceptados o empleados por atacantes si la plataforma sufre vulneraciones.
El uso responsable de la tecnología, combinado con la educación digital, es clave para minimizar los riesgos asociados y potenciar los beneficios que la inteligencia artificial puede brindar en la detección de fraudes y la protección en línea.
Últimas Noticias
Epic Games Store regala divertido juego para PC: así puedes descargarlo ahora mismo
Epic Games Store ofrece dos nuevos juegos gratuitos para todos los usuarios de PC durante su promoción semanal

Gana hasta 2 millones de dólares si reportas cualquier falla de ciberseguridad con productos Apple
La compañía dirigida por Tim Cook lanzó un nueva programa de recompensas para investigadores de ciberseguridad
OpenAI planea transformar ChatGPT en algo más que una IA: su visión es convertirlo en un sistema operativo
OpenAI anunció la integración de aplicaciones dentro de ChatGPT, un paso clave en su evolución hacia convertirse en un sistema operativo completo

Así puedes traducir mensajes de WhatsApp sin salir de la app y entender cualquier idioma
Los usuarios podrán elegir los idiomas de origen y destino, e incluso activar traducciones automáticas en tiempo real
