Guardar
Esta plataforma cuenta con medidas
Esta plataforma cuenta con medidas que limitan varias acciones peligrosas. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

La popularidad de ChatGPT a nivel global ha crecido de gran forma, porque muchos usuarios recurren a esta herramienta para redactar correos, programar, crear imágenes, automatizar tareas, responder preguntas o corregir textos.

No obstante, un informe de OpenAI advierte que, más allá de estos usos legítimos, la plataforma ha sido empleada para impulsar campañas maliciosas, generar contenido sesgado y monitorizar conversaciones en redes sociales.

Desde febrero del año pasado, OpenAI ha interrumpido la actividad de 40 redes que infringieron los términos de uso de ChatGPT. Según la compañía dirigida por Sam Altman, estas redes, localizadas en países como China, Rusia, Corea y Camboya, utilizaron el chatbot para desplegar ciberataques, estafas y operaciones de influencia encubiertas.

OpenAI interrumpió 40 redes que
OpenAI interrumpió 40 redes que empleaban ChatGPT para ciberataques y campañas de desinformación en varios países. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

Pese a que ChatGPT prohíbe la creación de este tipo de contenido, porque va en contra de sus políticas, el informe de OpenAI advierte que, si un usuario logra engañar al sistema, podría generar correos o anuncios con apariencia legítima.

De qué forma los ciberdelincuentes utilizan ChatGPT para cometer delitos

En el caso de Corea, los ciberdelincuentes desarrollaron malware y una infraestructura de comando y control mediante el uso de la inteligencia artificial. Por su parte, una red con operaciones en Camboya, Birmania y Nigeria intentó emplear el chatbot para ejecutar campañas fraudulentas dirigidas a engañar a personas.

También, el informe señala que en regímenes autoritarios se ha recurrido a ChatGPT para crear herramientas destinadas a la monitorización masiva de redes sociales.

En regímenes autoritarios ChatGPT se
En regímenes autoritarios ChatGPT se utilizó para monitorizar redes sociales y manipular la opinión pública. (Imagen Ilustrativa Infobae)

Además, los modelos de OpenAI han sido utilizados para generar contenido en plataformas como YouTube y TikTok, con el objetivo de difundir desinformación y manipular la opinión pública mediante información sesgada.

Los expertos en ciberseguridad insisten en que los peligros más relevantes asociados al uso inadecuado de ChatGPT son el phishing y el malvertising. El primero consiste en el envío de mensajes diseñados para engañar a los usuarios y obtener datos confidenciales, mientras que el segundo hace referencia a anuncios falsos que redirigen a sitios web maliciosos.

Cómo ChatGPT puede ayudar a identificar estafas

A pesar de estos riesgos, la propia OpenAI subraya que su chatbot se emplea con mayor frecuencia para identificar estafas que para cometerlas. La compañía estima que “ChatGPT se utiliza para identificar timos hasta tres veces más que para estafas”, según datos recogidos en su informe.

El phishing y el malvertising
El phishing y el malvertising son los principales riesgos asociados al uso de ChatGPT, por parte de ciberdelincuentes. (Imagen ilustrativa Infobae)

Al copiar textos dudosos en ChatGPT, los usuarios pueden recibir una evaluación sobre la autenticidad de correos, anuncios o comunicaciones que podrían esconder intentos de phishing, suplantación de identidad o propuestas fraudulentas.

El modelo puede destacar señales de alerta como errores de redacción, solicitudes inusuales de datos personales o enlaces a sitios no verificados. Esta capacidad facilita la identificación rápida de riesgos, sobre todo para personas sin conocimientos avanzados de ciberseguridad.

La inteligencia artificial permite automatizar la revisión de grandes volúmenes de mensajes en empresas. Al entrenar modelos como ChatGPT con casos de estafas conocidas, se fortalece la capacidad de filtrado y prevención, ayudando a los grupos de seguridad informática a identificar patrones poco habituales.

Qué precauciones se deben considerar al usar IA en la vida cotidiana

Se debe tener cuidado al
Se debe tener cuidado al momento de dar datos al sistema. (Imagen ilustrativa Infobae)

El uso de herramientas de inteligencia artificial demanda una evaluación crítica constante por parte de los usuarios. Aunque ChatGPT puede ayudar a detectar estafas digitales, su análisis no es infalible y puede cometer errores tanto en la identificación de amenazas como en la interpretación de mensajes legítimos.

Por esto, los expertos sugieren no tomar decisiones basadas únicamente en el resultado que ofrece el chatbot, sino contrastar la información con fuentes confiables y emplear software de ciberseguridad actualizado.

Asimismo, es importante no compartir datos personales sensibles, contraseñas o información financiera a través de sistemas automatizados, porque existe el riesgo de que estos datos sean interceptados o empleados por atacantes si la plataforma sufre vulneraciones.

El uso responsable de la tecnología, combinado con la educación digital, es clave para minimizar los riesgos asociados y potenciar los beneficios que la inteligencia artificial puede brindar en la detección de fraudes y la protección en línea.