Inteligencia artificial en época de elecciones: Riesgos y formas de no caer en noticias falsas

Experto en temas de IA indicó que es cada vez más difícil identificar imágenes o videos que no son reales

Guardar
Varios precandidatos han expuesto imágenes
Varios precandidatos han expuesto imágenes o videos realizados con esta herramienta - crédito Montaje Infobae (iStock)

En los últimos años, la inteligencia artificial, que es como se conoce a la disciplina científica en la que se crean programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico, ha tomado una mayor relevancia en el mundo.

La popularidad de esta inteligencia se refleja en el uso constante que se registra a diario, puesto que más del 40% de las empresas en el mundo permite que sus trabajadores utilicen estas herramientas; además, el 66% de la población global ha hecho uso de la misma alguna vez en su vida.

Ahora puede seguirnos en Facebook y en nuestro WhatsApp Channel

En Colombia, en el contexto político, esto no es la excepción, puesto que varios precandidatos presidenciales han expuesto imágenes y videos realizados de esta forma; sin embargo, algunos han caído en noticias falsas que han sido creadas de la misma forma.

Por ejemplo, tras la absolución del expresidente Álvaro Uribe Vélez, el congresista Miguel Ángel Pinto compartió, sin saber que se trataba de algo hecho con IA, una canción con la voz de Carlos Vives celebrando la noticia.

El senador compartió el video
El senador compartió el video hecho con inteligencia artificial desconociendo que no era real - crédito @MiguelPintoH1/X

Bajo ese contexto, se han generado dudas sobre las posibles fake news que se podrán hacer populares con esta herramienta en la previa de las elecciones en Colombia.

Es por ello que, en diálogo con Infobae Colombia, el director del Doctorado en Inteligencia Artificial y Director del Centro de Innovación IA-Lab de la Universidad de La Sabana Miguel Ángel Uribe, explicó varios aspectos a tener en cuenta sobre este tema.

En primer lugar, el experto se enfocó en los riesgos del uso indebido de la inteligencia artificial en época de elecciones.

El riesgo más evidente es el engaño a la opinión pública a través de las imágenes y videos realistas, pero falsos, en los que se puede mostrar a los candidatos diciendo o haciendo cosas que nunca ocurrieron. Las redes permiten que estos videos se propaguen tan rápido que muchas veces la visibilidad supera la capacidad de las campañas para desmentir la información”.

El experto indicó que la
El experto indicó que la propagación de imágenes o videos creados con IA se registra principalmente en redes sociales - crédito EFE

En ese sentido, explicó que hay más riesgos latentes, algunos que ya han sido utilizados en campañas políticas para desprestigiar a sus rivales con mejor popularidad.

Hoy es posible analizar millones de datos de redes sociales para identificar y segmentar los perfiles de los usuarios y así dirigir campañas publicitarias maliciosas que buscan, más que informar, explotar los miedos y sesgos de la población. Estas campañas terminan polarizando e influyendo en la intención de voto de forma manipulativa”.

Miguel Ángel Uribe también destacó que hay formas para identificar que una imagen o video ha sido creado con IA, aunque resaltó que en la actualidad esto es cada vez más difícil.

“Hace algunos años era más fácil identificar imágenes o videos falsos porque sus fallas eran evidentes. Todos vimos esas imágenes de personas con seis dedos o los textos ilegibles que no tienen sentido. Estas tecnologías han avanzado mucho y cada vez es más difícil encontrar las diferencias entre lo falso y lo real, y la tendencia es que estas brechas cada vez sean más pequeñas”.

El experto reafirmó que las redes sociales han sido claves para que aumente el riesgo de que no se logre evidenciar las diferencias entre algo real y un formato creado con IA.

“Una imagen viralizada en redes sociales pierde la información sobre su origen y al final es muy difícil también distinguir imágenes reales o falsas desde un punto de vista computacional; la responsabilidad cae de nuevo en el criterio humano, debemos como sociedad aprender a desconfiar de los contenidos que nos llegan, a verificar fuentes, a contrastar información y, principalmente, evitar propagar información falsa”.

Para Uribe, existe una responsabilidad
Para Uribe, existe una responsabilidad de cada usuario para no caer en noticias falsas - crédito EFE

El experto lamentó que en Colombia no exista algún tipo de ley que se enfoque en proteger a las víctimas de casos ligados con el uso indebido de la inteligencia artificial.

“Formalmente, en Colombia no hay una regulación al uso de la inteligencia artificial, en este momento hay en el Congreso de la República varias iniciativas en ese sentido y considero que en algunos meses esa regulación ya existirá”.

Por último, explicó que hasta la fecha, la ciudadanía se puede proteger con la Ley 2502 de 2025, que modificó el Código Penal Colombiano para casos de falsedad personal, lo que incluye suplantaciones directas o creadas con algún tipo de inteligencia, además de que delitos como la injuria o la calumnia también pueden ser tipificados en casos de esta índole.