Los enfoques de seguridad y gobernanza para agentes de IA autónomos se basan en credenciales estáticas , controles inconsistentes y visibilidad limitada. Proteger estos agentes requiere el mismo rigor y trazabilidad que los usuarios humanos, según el informe «Securing Autonomous AI Agents» de Cloud Security Alliance.

Los agentes escalan más rápido que los marcos de gobernanza

Los agentes de IA autónomos actúan en nombre de los humanos, accediendo a datos y tomando decisiones con impacto en el negocio. Las organizaciones los están implementando en entornos de producción, pilotos, pruebas e iniciativas más amplias de IA o automatización. Como resultado, los agentes operan en múltiples entornos, ampliando la fuerza laboral de agentes sin los controles de gobernanza e IAM correspondientes.

“La fuerza laboral de agentes está escalando más rápido de lo que los marcos de identidad y seguridad pueden adaptarse. El éxito en la era de los agentes dependerá de tratar la identidad de los agentes con el mismo rigor que históricamente se ha reservado para los usuarios humanos, lo que permite una autonomía segura a escala empresarial”, afirmó Hillary Baron, vicepresidenta adjunta de Investigación de Cloud Security Alliance.

La confianza en las herramientas IAM existentes para gestionar la identidad de los agentes sigue siendo baja, lo que demuestra que las arquitecturas de identidad optimizadas para humanos no están preparadas para gobernar agentes autónomos.

La responsabilidad de gestionar las identidades de los agentes tampoco está definida. Los equipos de seguridad, TI, DevOps, IAM, GRC y los equipos emergentes de seguridad de IA suelen compartir la responsabilidad, lo que genera deficiencias en la supervisión y una aplicación inconsistente de las políticas.

Los encuestados también expresan incertidumbre sobre su capacidad para superar las auditorías de cumplimiento relacionadas con la actividad de los agentes de IA y los controles de acceso. La gobernanza suele basarse en prácticas informales en lugar de marcos definidos. Como resultado, las empresas corren el riesgo de implementar agentes competentes en entornos donde las reglas de identidad, responsabilidad y autorización aún no están definidas.

Credenciales obsoletas y controles de acceso fragmentados

A pesar de la integración de agentes de IA en producción, muchas organizaciones siguen utilizando patrones de credenciales y acceso no diseñados para sistemas autónomos. Las claves API, los nombres de usuario y las contraseñas , y las cuentas de servicio compartidas siguen siendo comunes, mientras que enfoques como OIDC, OAuth PKCE o las identidades de carga de trabajo SPIFFE/SVID se adoptan con menos frecuencia. Esto refleja la incertidumbre sobre si los agentes de IA deben tratarse como identidades de máquina, equivalentes humanos o algo intermedio.

La fragmentación se ve reforzada por modelos de autorización diseñados para usuarios humanos y acceso a aplicaciones, en lugar de agentes que operan continuamente. Los controles de acceso en tiempo de ejecución son inconsistentes, la adopción de medidas de seguridad sigue siendo limitada y la gestión de secretos , el registro de sesiones y el registro de auditoría distan mucho de ser universales.

Estas brechas impiden a las organizaciones un control continuo sobre el comportamiento de los agentes una vez emitidas las credenciales. Las credenciales estáticas y las comprobaciones periódicas de políticas no permiten la autenticación continua ni la autorización contextual que requieren los agentes autónomos, lo que dificulta determinar qué agente actuó, en qué condiciones y en nombre de quién.

Visibilidad limitada y trazabilidad débil

A pesar de la expansión del uso de agentes de IA, la mayoría de las organizaciones carecen de la visibilidad necesaria para gestionarlos de forma segura. Los registros de agentes están fragmentados entre proveedores de identidad, bases de datos personalizadas, registros de servicios internos y plataformas de terceros. En lugar de implementar sistemas específicos para el descubrimiento y la gobernanza de agentes, las organizaciones están modernizando las herramientas existentes, lo que resulta en una visibilidad parcial, retrasada y aislada.

La trazabilidad y la monitorización son igualmente inconsistentes. Las empresas a menudo no pueden determinar qué hicieron los agentes, a qué accedieron, con qué autorización o a petición de quién.

Los encuestados indicaron que acciones como acceder a datos confidenciales, realizar cambios en el sistema, aprobar transacciones financieras y otorgar permisos aún requieren supervisión humana. Esto refleja una confianza limitada en los agentes que operan de forma autónoma en escenarios de alto riesgo y que la gobernanza de los agentes aún no ha alcanzado una madurez continua y auditable .

Aumento de la concienciación y la inversión en la identidad del agente

Las brechas de seguridad y gobernanza son cada vez más visibles, lo que impulsa a las empresas a aumentar los presupuestos de identidad y seguridad para dar cabida a los agentes de IA. La identidad de los agentes está comenzando a consolidarse como un componente diferenciado y financiado de las arquitecturas de seguridad empresarial.

Cuando se les preguntó sobre sus principales preocupaciones, los encuestados mencionaron la exposición de datos confidenciales, acciones no autorizadas o no deseadas, experiencia limitada, uso indebido de credenciales o exceso de aprovisionamiento, falta de estándares de identidad de agentes, dificultad para descubrir o registrar agentes, desafíos de integración con sistemas heredados o API y concientización o capacitación insuficiente.

Fuente y redacción: helpnetsecurity.com

Compartir