
Los asistentes de inteligencia artificial, herramientas que cada vez más personas utilizan para mantenerse informadas, aún están lejos de alcanzar la precisión periodística que prometen. Una investigación internacional encabezada por la Unión Europea de Radiodifusión (UER) y la BBC reveló que los principales modelos de IA tergiversan o inventan información en casi la mitad de sus respuestas relacionadas con noticias recientes.
El estudio analizó 3.000 respuestas generadas por los asistentes ChatGPT, Copilot, Gemini y Perplexity en 14 idiomas. Los resultados muestran que el 45% de las respuestas presentaban errores importantes y que el 81% tenía algún tipo de problema de precisión, contexto o atribución. Los expertos advierten que estos fallos podrían poner en riesgo la confianza de los usuarios que utilizan estas plataformas para informarse sobre temas de actualidad.
Las compañías detrás de estos sistemas, como OpenAI, Microsoft y Google, han reconocido en diversas ocasiones que el fenómeno conocido como “alucinaciones” —cuando la IA genera información falsa o no verificada— sigue siendo un desafío técnico y ético por resolver.

Un análisis global de la precisión informativa
El trabajo, en el que participaron 22 medios de comunicación públicos de 18 países, evaluó cómo los principales asistentes de IA responden a preguntas sobre noticias recientes. El objetivo fue medir no solo la exactitud de los datos ofrecidos, sino también la capacidad de diferenciar entre hechos y opiniones, así como la fiabilidad de las fuentes citadas.
Los investigadores descubrieron que un tercio de las respuestas contenía errores graves relacionados con las fuentes, como atribuciones inexistentes, tergiversadas o directamente inventadas. En este punto, Gemini, el modelo de Google, fue el que mostró el mayor número de fallos: el 72% de sus respuestas presentaban problemas significativos de atribución o referencia. En contraste, otros asistentes como Copilot o Perplexity registraron menos del 25% de respuestas con este tipo de errores.
El estudio también detectó información desactualizada o inexacta en cerca del 20% de las respuestas analizadas. Algunos ejemplos incluyeron respuestas de Gemini que ofrecían datos erróneos sobre leyes recientes o la persistencia de ChatGPT en identificar figuras públicas fallecidas como si siguieran vivas.

Las “alucinaciones” de la IA siguen siendo un obstáculo
Las empresas tecnológicas reconocen desde hace tiempo el problema de las llamadas “alucinaciones” de la IA, que se producen cuando los sistemas generan información incorrecta o que parece verídica sin tener base en datos reales. OpenAI y Microsoft han afirmado que trabajan en mecanismos para reducir estos errores, mientras que Perplexity sostiene que su modo de “Investigación profunda” alcanza una precisión del 93,9% en cuanto a los hechos.
Sin embargo, los investigadores advierten que la complejidad del lenguaje humano y la falta de verificación en tiempo real hacen que los modelos generativos sigan siendo vulnerables a errores, especialmente en temas de actualidad. La naturaleza probabilística de estos sistemas —que generan texto en función de patrones aprendidos, no de conocimiento factual— contribuye a que se produzcan afirmaciones imprecisas o inventadas.
Un desafío para el consumo responsable de información
Los expertos sugieren que los usuarios deben asumir una postura crítica frente a las respuestas de los asistentes de IA y verificar siempre la información en fuentes periodísticas confiables.

“Las herramientas de IA pueden ser útiles para resumir o contextualizar, pero no deben sustituir al periodismo profesional”, concluyen los autores del estudio. La recomendación del estudio es claro: la inteligencia artificial puede ser una aliada, pero todavía no una fuente de información confiable.
La investigación subraya la necesidad de que las empresas tecnológicas refuercen los mecanismos de verificación y transparencia en sus modelos, especialmente en un contexto en el que cada vez más personas recurren a estas herramientas como su primera vía de acceso a la información.
Últimas Noticias
Steve Wozniak, Elon Musk y más figuras tecnológicas piden frenar el avance de la IA y poner en riesgo a la humanidad
El Future of Life Institute coordina la iniciativa en la que también participan los duques de Sussex, Harry y Meghan

Mensajes de texto no solicitados, señales de alerta y pasos para evitar caer en fraudes móviles
Actualizaciones en aplicaciones de llamadas, filtros inteligentes y la supervisión constante permiten a los usuarios anticipar ataques y resguardar de mejor manera la privacidad de sus datos

Amazon tendrá gafas inteligentes para sus repartidores: les ayudará a identificar su destino con facilidad
El dispositivo integra cámaras, sensores y pantalla para mejorar la entrega de paquetes

Dónde instalar el router en casa para evitar interferencias y mejorar la velocidad del WiFi
Obstáculos físicos, interferencias y la orientación de las antenas influyen considerablemente en la cobertura, haciendo de la ubicación un factor crucial para streaming, videojuegos y videollamadas en el hogar

Qué son y para qué sirven las VPN: guía sobre todo lo que debes saber
Expertos en ciberseguridad destacan cómo estas herramientas permiten mantener la confidencialidad de los datos personales, acceder a contenidos restringidos y protegerse en redes WiFi públicas
