Guardar
Chatbots de inteligencia artificial inventan
Chatbots de inteligencia artificial inventan muchas de sus respuestas. (Imagen Ilustrativa Infobae)

Los asistentes de inteligencia artificial, herramientas que cada vez más personas utilizan para mantenerse informadas, aún están lejos de alcanzar la precisión periodística que prometen. Una investigación internacional encabezada por la Unión Europea de Radiodifusión (UER) y la BBC reveló que los principales modelos de IA tergiversan o inventan información en casi la mitad de sus respuestas relacionadas con noticias recientes.

El estudio analizó 3.000 respuestas generadas por los asistentes ChatGPT, Copilot, Gemini y Perplexity en 14 idiomas. Los resultados muestran que el 45% de las respuestas presentaban errores importantes y que el 81% tenía algún tipo de problema de precisión, contexto o atribución. Los expertos advierten que estos fallos podrían poner en riesgo la confianza de los usuarios que utilizan estas plataformas para informarse sobre temas de actualidad.

Las compañías detrás de estos sistemas, como OpenAI, Microsoft y Google, han reconocido en diversas ocasiones que el fenómeno conocido como “alucinaciones” —cuando la IA genera información falsa o no verificada— sigue siendo un desafío técnico y ético por resolver.

Chatbots de inteligencia artificial inventan
Chatbots de inteligencia artificial inventan información o no dan fuentes verificadas en sus respuestas. (UER)

Un análisis global de la precisión informativa

El trabajo, en el que participaron 22 medios de comunicación públicos de 18 países, evaluó cómo los principales asistentes de IA responden a preguntas sobre noticias recientes. El objetivo fue medir no solo la exactitud de los datos ofrecidos, sino también la capacidad de diferenciar entre hechos y opiniones, así como la fiabilidad de las fuentes citadas.

Los investigadores descubrieron que un tercio de las respuestas contenía errores graves relacionados con las fuentes, como atribuciones inexistentes, tergiversadas o directamente inventadas. En este punto, Gemini, el modelo de Google, fue el que mostró el mayor número de fallos: el 72% de sus respuestas presentaban problemas significativos de atribución o referencia. En contraste, otros asistentes como Copilot o Perplexity registraron menos del 25% de respuestas con este tipo de errores.

El estudio también detectó información desactualizada o inexacta en cerca del 20% de las respuestas analizadas. Algunos ejemplos incluyeron respuestas de Gemini que ofrecían datos erróneos sobre leyes recientes o la persistencia de ChatGPT en identificar figuras públicas fallecidas como si siguieran vivas.

Chatbots de IA no entregan
Chatbots de IA no entregan respuestas con fuente verificadas en noticias de actualidad. (Imagen Ilustrativa Infobae)

Las “alucinaciones” de la IA siguen siendo un obstáculo

Las empresas tecnológicas reconocen desde hace tiempo el problema de las llamadas “alucinaciones” de la IA, que se producen cuando los sistemas generan información incorrecta o que parece verídica sin tener base en datos reales. OpenAI y Microsoft han afirmado que trabajan en mecanismos para reducir estos errores, mientras que Perplexity sostiene que su modo de “Investigación profunda” alcanza una precisión del 93,9% en cuanto a los hechos.

Sin embargo, los investigadores advierten que la complejidad del lenguaje humano y la falta de verificación en tiempo real hacen que los modelos generativos sigan siendo vulnerables a errores, especialmente en temas de actualidad. La naturaleza probabilística de estos sistemas —que generan texto en función de patrones aprendidos, no de conocimiento factual— contribuye a que se produzcan afirmaciones imprecisas o inventadas.

Un desafío para el consumo responsable de información

Los expertos sugieren que los usuarios deben asumir una postura crítica frente a las respuestas de los asistentes de IA y verificar siempre la información en fuentes periodísticas confiables.

Chatbot de IA. (Imagen Ilustrativa
Chatbot de IA. (Imagen Ilustrativa Infobae)

“Las herramientas de IA pueden ser útiles para resumir o contextualizar, pero no deben sustituir al periodismo profesional”, concluyen los autores del estudio. La recomendación del estudio es claro: la inteligencia artificial puede ser una aliada, pero todavía no una fuente de información confiable.

La investigación subraya la necesidad de que las empresas tecnológicas refuercen los mecanismos de verificación y transparencia en sus modelos, especialmente en un contexto en el que cada vez más personas recurren a estas herramientas como su primera vía de acceso a la información.