Microsoft reconoce un error que permite a Copilot resumir correos con contenido confidencial

La tecnológica ha admitido una vulnerabilidad en su asistente de IA, tras reportarse que pudo procesar información privada sin autorización durante semanas según expertos, y afirma que ya hay medidas correctivas mientras mantiene la vigilancia del caso

Guardar

Microsoft se enfrenta a una nueva situación en la que errores técnicos han impactado el funcionamiento de Copilot, su asistente de inteligencia artificial. Entre las consecuencias, la compañía consideró reducir la integración de Copilot en el sistema operativo Windows 11, según reportó Bleeping Computer. Esta decisión surge tras reportarse varios fallos recientes relacionados con el uso de este tipo de sistemas inteligentes en distintas aplicaciones de la suite Office.

Una investigación del portal Bleeping Computer identificó una alerta fechada el 21 de enero bajo el código CW1226324, en la que se detectaba una vulnerabilidad de seguridad vinculada al asistente Copilot. Este error permitía que la opción de chat en la ventana de asistencia accediera y resumiera información contenida en correos electrónicos etiquetados como “confidenciales”, incluso en aquellos casos donde esas etiquetas debían impedir dicho acceso. De acuerdo con lo informado por el medio, el problema persistió durante varias semanas y habilitó la recopilación de contenido privado desde las carpetas de elementos enviados y borradores, lo que puso en entredicho la protección de la privacidad que ofrecen las herramientas colaborativas de Office.

Según detalló Bleeping Computer, la función Copilot Chat se incorporó en septiembre a los programas Word, Excel y PowerPoint, posibilitando que los usuarios interactuaran con la inteligencia artificial al trabajar sobre documentos, hojas de cálculo y correos electrónicos. No obstante, la brecha detectada permitió que la IA superara las restricciones de confidencialidad implementadas por las organizaciones para proteger la información más sensible.

La compañía Microsoft reconoció públicamente el incidente y explicó que la vulnerabilidad se debía a “un problema de código no especificado” que habilitaba a Copilot para recopilar información confidencial de los buzones, aún cuando las etiquetas debían bloquear dicho acceso. “Un problema de código permite que Copilot recopile elementos de las carpetas de elementos enviados y borradores, aunque se hayan establecido etiquetas de confidencialidad”, detalló un comunicado oficial de la tecnológica recogido por Bleeping Computer.

Tras la detección del fallo, Microsoft comunicó que desplegó una solución a principios de febrero. Según consignó el medio, la empresa sigue vigilando la situación activamente para descartar que el problema persista en otros entornos o que pueda replicarse en contextos similares. El monitoreo continuo tiene como objetivo garantizar que el acceso no autorizado no vuelva a ocurrir en futuras actividades de la inteligencia artificial implementada en Office.

Este incidente aumentó la preocupación en torno a la fiabilidad de los asistentes basados en inteligencia artificial en escenarios empresariales donde la confidencialidad de la información representa una prioridad. En los últimos meses, Microsoft ya había tenido que hacer frente a distintos reportes sobre fallos en Windows 11, lo que impulsó la revisión y el ajuste de la presencia de Copilot en el sistema operativo, precisó Bleeping Computer.

Según el portal especializado, la inclusión de Copilot Chat en Office se había planteado como una herramienta para elevar la productividad y la eficiencia, pero los recientes episodios subrayan los desafíos técnicos y de seguridad que acompañan el despliegue masivo de la inteligencia artificial. Microsoft remarcó que el incidente se resolvió con la actualización del software, aunque la vigilancia de la compañía sigue centrada en detectar cualquier nueva irregularidad que pueda afectar la protección de los datos.