Identidade Corporativa: Por Que Nossos Sistemas Não Estão Prontos Para Agentes de IA?

A ascensão meteórica da Inteligência Artificial e a proliferação de agentes de IA nas empresas estão redesenhando fundamentalmente o panorama da segurança cibernética. Esses novos atores, que operam de forma autônoma dentro de sistemas corporativos sensíveis, estão revelando uma lacuna crítica: nossos robustos sistemas de identidade e acesso (IAM) foram projetados para humanos, não para máquinas inteligentes. O desafio é urgente, pois a falta de visibilidade e controle sobre as ações desses agentes pode expor dados e sistemas a riscos sem precedentes, exigindo que líderes de TI repensem toda a arquitetura de confiança de suas organizações.

O Paradoxo dos Agentes de IA: Autonomia Sem Controle

Agentes de IA, munidos de Large Language Models (LLMs), estão cada vez mais realizando ações críticas em ambientes corporativos: fazem login, buscam dados, utilizam ferramentas e executam fluxos de trabalho complexos. No entanto, muitas vezes, essas operações acontecem sem a visibilidade ou o controle que os sistemas tradicionais de identidade foram projetados para impor. Essa proliferação de ferramentas e agentes autônomos nas empresas ocorre em um ritmo que as equipes de segurança simplesmente não conseguem acompanhar.

As Premissas Falhas do IAM Tradicional

Os sistemas de identidade e acesso (IAM) atuais se baseiam em premissas que os agentes de IA violam completamente. Eles assumem usuários estáticos, contas de serviço de longa duração e atribuições de funções amplas. Não foram criados para representar uma autoridade humana delegada, contextos de execução de curta duração ou agentes operando em ciclos de decisão rápidos e contínuos. Como resultado, é imperativo que os líderes de TI revisitem e repensem a própria camada de confiança.

Essa mudança não é teórica. A Arquitetura Zero Trust do NIST (SP 800-207), por exemplo, afirma explicitamente que todos os sujeitos – incluindo aplicativos e entidades não-humanas – são considerados não confiáveis até serem autenticados e autorizados. Em um mundo de agentes, isso significa que os sistemas de IA devem ter identidades explícitas e verificáveis próprias, e não operar através de credenciais herdadas ou compartilhadas.

Nancy Wang, CTO da 1Password e Venture Partner na Felicis, destaca a essência do problema: As arquiteturas de IAM corporativas são construídas assumindo que todas as identidades de sistema são humanas, o que significa que contam com comportamento consistente, intenção clara e responsabilidade humana direta para impor a confiança. Ela acrescenta: Sistemas agentivos quebram essas suposições. Um agente de IA não é um usuário que você pode treinar ou revisar periodicamente. É um software que pode ser copiado, ramificado, escalado horizontalmente e deixado rodando em ciclos de execução apertados em vários sistemas. Se continuarmos a tratar os agentes como humanos ou contas de serviço estáticas, perdemos a capacidade de representar claramente para quem eles estão agindo, qual autoridade possuem e por quanto tempo essa autoridade deve durar.

Ambientes de Desenvolvimento: Novas Zonas de Risco de Segurança

Um dos primeiros locais onde essas premissas de identidade falham é o ambiente de desenvolvimento moderno. O IDE (Integrated Developer Environment) evoluiu de um editor simples para um orquestrador capaz de ler, escrever, executar, buscar e configurar sistemas. Com um agente de IA no centro desse processo, as transições de prompt injection deixam de ser uma possibilidade abstrata e se tornam um risco concreto.

Como os IDEs tradicionais não foram projetados com agentes de IA como componente central, a adição de capacidades de IA ‘aftermarket’ introduz novos tipos de riscos que os modelos de segurança tradicionais não foram construídos para contabilizar. Por exemplo, agentes de IA podem inadvertidamente violar limites de confiança. Um arquivo README aparentemente inofensivo pode conter diretivas ocultas que enganam um assistente a expor credenciais durante uma análise padrão. Conteúdo de projeto de fontes não confiáveis pode alterar o comportamento do agente de maneiras não intencionais, mesmo quando esse conteúdo não tem semelhança óbvia com um prompt. As fontes de entrada agora se estendem além de arquivos que são deliberadamente executados; documentação, arquivos de configuração, nomes de arquivos e metadados de ferramentas são todos ingeridos pelos agentes como parte de seus processos de tomada de decisão, influenciando como interpretam um projeto.

Agentes Autônomos: Sem Intenção, Sem Responsabilidade

Quando adicionamos agentes altamente autônomos e determinísticos, operando com privilégios elevados e com a capacidade de ler, escrever, executar ou reconfigurar sistemas, a ameaça cresce exponencialmente. Esses agentes não têm contexto, nem capacidade de determinar se uma solicitação de autenticação é legítima, quem delegou essa solicitação ou os limites que devem ser impostos a essa ação.

Com agentes, você não pode presumir que eles têm a capacidade de fazer julgamentos precisos, e eles certamente não têm um código moral, afirma Wang. Cada uma de suas ações precisa ser devidamente restringida, e o acesso a sistemas sensíveis e o que eles podem fazer dentro deles precisa ser mais claramente definido. A parte complicada é que eles estão continuamente tomando ações, então também precisam ser continuamente restringidos.

Onde o IAM Tradicional Falha com Agentes de IA

Os sistemas tradicionais de identidade e gerenciamento de acesso operam com várias premissas que a IA agentiva viola:

O Caminho a Seguir: Repensando a Identidade para a Era da IA

A transição para um mundo onde os agentes de IA são atores centrais nos ambientes corporativos exige uma reavaliação fundamental de como concebemos a identidade e o acesso. Não se trata apenas de aplicar remendos aos sistemas existentes, mas de construir uma nova camada de confiança que possa lidar com a natureza dinâmica, autônoma e escalável dos agentes de IA. Isso incluirá a implementação de identidades explícitas para IA, mecanismos de controle de acesso altamente granulares e dinâmicos, e a redefinição da responsabilidade em um ecossistema híbrido de humanos e máquinas.

A capacidade de governar e proteger as interações dos agentes de IA com sistemas sensíveis será um diferencial competitivo e um imperativo de segurança para todas as empresas. A hora de agir é agora, antes que a proliferação desses agentes crie brechas irreparáveis em nossa infraestrutura de segurança.

Gostou da notícia? Inscreva-se na nossa newsletter para receber as principais novidades sobre inteligência artificial diretamente no seu e-mail.

Veja também