
La inteligencia artificial (IA) ha revolucionado diversas industrias, desde la medicina hasta la educación, pero también ha abierto la puerta a un nuevo tipo de delincuencia. Los ciberdelincuentes, al aprovechar las capacidades de la IA, han comenzado a generar contenido falso con fines malintencionados, como el fraude, la difamación, la manipulación política y social, entre otros.
Utilizando herramientas avanzadas, estos delincuentes crean textos, imágenes, vídeos y audios falsos que pueden resultar extremadamente convincentes. Esta tecnología no solo ha facilitado la creación de contenido engañoso, también ha transformado la forma en que los atacantes operan en línea.
Según información suministrada por el Instituto Nacional de Ciberseguridad de España (Incibe), la IA está siendo utilizada para generar fake news o noticias falsas, diseñadas para desinformar y manipular a la opinión pública. Un ejemplo claro de esto son los generadores de texto como ChatGPT, que permiten crear artículos completos con un estilo muy similar al de los periodistas profesionales.

Esta capacidad de producir contenido escrito de alta calidad ha permitido a los ciberdelincuentes difundir desinformación de forma masiva.
Cómo crean imágenes falsas los ciberdelincuentes
Además de los generadores de texto, los ciberdelincuentes también utilizan IA para crear contenido visual y auditivo falsificado. Herramientas como DeepFaceLab permiten la creación de deepfakes, alterando vídeos de manera que son casi indistinguibles de los reales.
Estas herramientas utilizan redes neuronales para mapear y superponer rostros, creando vídeos falsos en los que personas como políticos o celebridades pueden aparecer diciendo o haciendo cosas que nunca ocurrieron.

La capacidad de manipular vídeos de esta manera ha sido aprovechada para difundir propaganda, suplantar identidades y afectar la reputación de figuras públicas.
Cómo puede la IA llegar a clonar una voz
Por otro lado, la clonación de voz es otro de los avances que los ciberdelincuentes explotan. Programas como Lyrebird permiten replicar con alta precisión la voz de cualquier persona. Usando esta tecnología, los atacantes pueden crear audios falsos, en los que una persona parece estar pronunciando palabras o haciendo declaraciones que nunca dijo.
Esto no solo es utilizado para difundir rumores o declaraciones falsas, también se ha utilizado en fraudes económicos. Un caso real reportado por el Incibe describe cómo ciberdelincuentes utilizaron una voz clonada para estafar a una persona, haciendo que creyera que un familiar cercano estaba solicitando dinero en una emergencia. La víctima, al reconocer la voz, accedió a transferir una cantidad considerable de dinero.

Cómo no caer en los engaños creados con IA
Texto: En el caso de artículos o publicaciones escritas, es importante verificar la coherencia y la gramática del contenido. Los textos generados por IA pueden presentar errores sutiles, como repeticiones innecesarias o incoherencias en el estilo, que no son comunes en textos escritos por humanos.
Vídeo: Los deepfakes a menudo presentan anormalidades, como un número excesivo de parpadeos o movimientos faciales poco naturales. También puede haber incongruencias entre el rostro y el cuerpo, o la calidad del sonido puede no coincidir con la imagen, mostrando desfases o tonos extraños.
Audio: En el caso de audios generados por IA, como en el caso de la clonación de voces, se puede detectar variaciones inusuales en el tono o el ritmo del habla. Además, la falta de ruido de fondo o la presencia de sonidos extraños puede ser indicativo de manipulación.
Imágenes: Las imágenes generadas o alteradas por IA a menudo presentan detalles finos defectuosos, como manos con dedos desproporcionados o fondos que no se alinean correctamente. También se puede notar que la iluminación y las sombras no son coherentes en toda la imagen.
Qué herramientas hay para verificar el contenido falso generado por IA
Afortunadamente, existen herramientas específicas que pueden ayudar a los usuarios a detectar contenido falso generado por IA. Según el Instituto Nacional de Ciberseguridad, algunas de las herramientas más efectivas incluyen:
- Detectores de IA para texto: Herramientas como GPTZero y Copyleaks permiten analizar el contenido escrito y determinar si ha sido generado por IA. Estas herramientas son capaces de detectar patrones lingüísticos y estructuras gramaticales que son característicos de los modelos de lenguaje artificial.
- Herramientas de detección de multimedia: Para vídeos y audios falsos, existen plataformas como Deepware, que permiten analizar y detectar deepfakes con alta precisión. Además, VerifAI y Resemble Detect permiten verificar si un contenido ha sido alterado o generado mediante IA.
ultimas
Glosario de tecnología: qué significa Autorespondedores
Con el paso de los años es cada vez más difícil imaginar la vida sin tecnología, por lo que es necesario saber más de ella

Estas son las carreras universitarias que debes estudiar para ganar hasta 300.000 dólares anuales y tener éxito profesional
El Foro Económico Mundial estima que faltan cerca de 4 millones de profesionales especializados en ciberseguridad, a nivel global

Chatbots y soledad, un peligro inesperado para la salud emocional
El uso intensivo de chatbots puede incrementar la soledad y la dependencia emocional, afectando negativamente la capacidad de socialización en la vida real

Qué hacer con un teléfono móvil cuando todavía sirve: tres formas de darle una segunda vida
Si la cámara funciona y aún tiene suficiente almacenamiento, una opción es convertirlo en una cámara de videovigilancia

Evita ser víctima de ciberdelincuentes al realizar compras online con este truco secreto: aplica para todo el mundo
Precios bajos, sitios mal diseñados y falta de contacto son solo algunas pistas de que una tienda podría ser fraudulenta. Aprende a reconocer los engaños antes de hacer clic
