Hace pocas semanas, Microsoft reveló otra parte de sus ambiciosos planes para traer agentes de IA que se integren de manera más profunda con Windows 11. La premisa es prácticamente algo futurístico: asistentes inteligentes que pueden interactuar con nuestros archivos, apps y configuraciones del sistema. Pero el problema llegó con la «extrema» honestidad de la compañía en un punto en concreto…
Y es que desde Microsoft reconocieron un detalle que asustó a millones de usuarios: la IA puede alucinar y comportarse de forma inesperada, creando nuevos riesgos de seguridad.
Ante este escenario, la comunidad tecnológica estalló. ¿Iba Microsoft a permitir que un sistema propenso a fallar tuviera acceso a nuestros documentos financieros, fotos o configuraciones del sistema? Por lo que, desde Redmond, tuvieron que dar una respuesta inmediata y cedieron a la presión pública.
Tras ello, el 5 de diciembre, Microsoft actualizó su documentación de soporte. Y en el acto, reconoció lo que debería haber sido obvio desde un inicio: los agentes de IA no pueden acceder a tus archivos personales sin pedir permiso explícitamente. Por lo que añadieron más control sobre qué agente puede ver qué en nuestro sistema. Para que Microsoft solo funciona cuando se hace patente la indignación pública.
El problema que Microsoft creó para luego recular
Hace ya varias semanas, los usuarios del programa Insiders de Windows avisaron de que Microsoft estaba preparando un acceso sin restricciones para agentes de IA a seis carpetas esenciales de Windows: Escritorio, Documentos, Descargas, Música, Imágenes y Vídeos. El plan era que Copilot pudiera acceder a ellas para «completar tareas» rápidamente. Pero la decisión enfureció a toda la comunidad.
Pero lo que realmente llevó esto a nivel de escándalo fue un comunicado dentro de la documentación donde se decía textualmente: «Los modelos de IA todavía se enfrentan a limitaciones funcionales de cómo se comportan y ocasionalmente pueden alucinar y producir respuestas inesperadas».
Traducido, Microsoft sabía que sus sistemas de IA son básicamente impredecibles. Pero aun así, decidió darles acceso a nuestra información financiera, personal o sensible. Por lo que la comunidad tecnológica no se tomó esta decisión para nada bien.
Bajo la presión de la comunidad, Microsoft finalmente actualizó su documentación el 5 de diciembre, confirmando que los agentes de IA no podrán acceder a nuestro contenido sin consentimiento explícito. Y aunque es un cambio importante, sigue dejando mucho que desear en cuanto a resultados.
Ahora, cuando un agente de IA como Copilot necesita acceder a nuestros archivos personales, Windows nos mostrará un pop-up con tres opciones:
- «Permitir siempre». El agente tendrá acceso permanente a las 6 carpetas ya mencionadas y no nos volverá a preguntar.
- «Preguntar siempre». Windows nos solicitará permiso cada vez que el agente quiera acceder a nuestros archivos.
- «No permitir». Bloqueo total. El agente nunca verá nuestros archivos.
Las limitaciones de este cambio
Aunque en cierta parte, este cambio supone un mayor control para los usuarios, seguimos contando con otro gran problema: no podemos dar acceso a carpetas de manera individual. Si quieres que Copilot tenga acceso a tus Documentos, pero no a tus Descargas, no existe opción alguna para que lo permita. Así que el agente accederá a las 6 carpetas o a ninguna.
Pero la preocupación sigue sobre la mesa. Microsoft ha admitido que sus agentes de IA pueden alucinar y fallar, pero no ofrece solución. No hay protección contra «inyección de prompts entre contextos» (XPIA). Una técnica donde alguien puede manipular un agente de IA a través de sus propios archivos.
Por lo tanto, la realidad es que estos controles de permisos están lejos de ser una solución final, y pasan más bien por un parche de Microsoft. De hecho, mientras los agentes de IA puedan alucinar y fallar de manera impredecible, ningún sistema de permisos será 100% seguro.
