Com a ascensão meteórica dos Agentes de Inteligência Artificial (AI agents) no ambiente corporativo, surge uma preocupação crítica: a segurança. Quatro grandes nomes da cibersegurança – Microsoft, Cisco, CrowdStrike e Splunk – convergiram para a mesma conclusão na conferência RSAC 2026: a segurança dos agentes de IA é um dos maiores desafios tecnológicos da atualidade. O problema central? Credenciais de acesso e código não confiável muitas vezes residem no mesmo ambiente, criando um enorme “raio de explosão” em caso de ataque. Felizmente, novas arquiteturas estão surgindo para redefinir onde o risco realmente termina.
A Crise de Confiança nos Agentes de IA: Um Novo Paradigma de Risco
Líderes do setor na RSAC 2026 foram unânimes. Vasu Jakkal, da Microsoft, enfatizou que o conceito de Zero Trust (Confiança Zero) deve se estender à IA. Jeetu Patel, da Cisco, defendeu uma mudança do controle de acesso para o controle de ação, comparando agentes a “adolescentes, extremamente inteligentes, mas sem medo das consequências”. George Kurtz, da CrowdStrike, identificou a governança de IA como a maior lacuna na tecnologia empresarial, enquanto John Morgan, da Splunk, pediu um modelo de confiança e governança “agentic”.
Matt Caulfield, VP de Produtos de Identidade e Duo da Cisco, explicou a urgência em uma entrevista à VentureBeat: “Não se trata apenas de autenticar uma vez e deixar o agente correr solto. É sobre verificar e escrutinar continuamente cada ação que o agente tenta realizar, porque a qualquer momento, esse agente pode se desviar.” Dados confirmam a gravidade: 79% das organizações já usam agentes de IA (PwC 2025 AI Agent Survey), mas apenas 14,4% relatam aprovação de segurança total para sua frota (Gravitee State of AI Agent Security 2026). Um estudo da CSA na RSAC revelou que somente 26% possuem políticas de governança de IA, caracterizando a situação como uma “emergência de governança”.
O Problema do Agente Monolítico: Uma Bomba-Relógio em Potencial
O padrão atual para agentes empresariais é frequentemente um contêiner monolítico. Nele, o modelo de IA raciocina, utiliza ferramentas, executa código gerado e armazena credenciais em um único processo. Isso significa que todos os componentes confiam uns nos outros. Tokens OAuth, chaves de API e credenciais Git coexistem no mesmo ambiente onde o agente executa códigos que ele mesmo escreveu há segundos.
Nesse cenário, um ataque de prompt injection (injeção de prompt) pode dar ao invasor acesso irrestrito. Tokens podem ser exfiltrados, sessões podem ser criadas e o “raio de explosão” do ataque se estende para além do agente, abrangendo todo o contêiner e todos os serviços conectados.
Pesquisas corroboram essa vulnerabilidade: 43% das empresas usam contas de serviço compartilhadas para agentes, 52% dependem de identidades de carga de trabalho em vez de credenciais específicas para agentes, e 68% não conseguem diferenciar a atividade do agente da atividade humana em seus logs (CSA e Aembit). A responsabilidade pela segurança dos agentes é difusa, com equipes de segurança e desenvolvedores atribuindo-a uns aos outros.
Elia Zaitsev, CTO da CrowdStrike, comparou a segurança de agentes a proteger usuários altamente privilegiados: “Eles têm identidades, acesso a sistemas subjacentes, raciocinam, agem. Raramente haverá uma solução única. É uma estratégia de defesa em profundidade.” Um exemplo notório é o ClawHavoc, uma campanha de ataque à cadeia de suprimentos visando a estrutura “agentic” OpenClaw, que expôs 1.184 habilidades maliciosas. A pesquisa ToxicSkills da Snyk revelou que 36,8% das 3.984 habilidades ClawHub escaneadas continham falhas de segurança, com 13,4% classificadas como críticas.
Soluções Emergentes: Anthropic Lidera com Separação de Responsabilidades
Anthropic Managed Agents: Cérebro, Mãos e Sessão Separados
A Anthropic, em 8 de abril, lançou o beta público de seus Managed Agents, que abordam o problema com uma arquitetura inovadora. Cada agente é dividido em três componentes que não confiam uns nos outros: o cérebro (o modelo Claude e sua lógica de roteamento), as mãos (contêineres Linux descartáveis para execução de código) e a sessão (um log de eventos somente anexação, externo aos outros dois).
Essa separação entre instruções e execução é um padrão de segurança consagrado, visto em microserviços e funções serverless. Com a Anthropic, as credenciais nunca entram no sandbox (ambiente isolado). Tokens OAuth são armazenados em um cofre externo. Quando o agente precisa chamar uma ferramenta, ele envia um token vinculado à sessão para um proxy dedicado. O proxy busca as credenciais reais no cofre, faz a chamada externa e retorna o resultado. O agente nunca vê o token original. Credenciais Git são conectadas ao ambiente local na inicialização do sandbox. Isso garante que, mesmo que um sandbox seja comprometido, o invasor não terá acesso a credenciais que possa reutilizar.
Impactos e o Futuro da Segurança de IA
As novas arquiteturas como a da Anthropic marcam um avanço significativo para a segurança de IA. Para as empresas, significa uma redução substancial do risco de ataques de “prompt injection” e exfiltração de credenciais, permitindo uma adoção mais segura e confiável de agentes autônomos. Para os desenvolvedores, essas abordagens incentivam melhores práticas de segurança desde o design, alinhando-se com os princípios de defesa em profundidade.
O mercado de segurança cibernética está se adaptando rapidamente, estendendo os princípios de Zero Trust aos agentes de IA. A necessidade de governança robusta, visibilidade granular das ações dos agentes e a separação de privilégios são mais evidentes do que nunca. Esses desenvolvimentos prometem um futuro onde a inteligência dos agentes de IA pode ser aproveitada com maior segurança e controle.
A urgência em endereçar a segurança dos agentes de IA é clara. As arquiteturas monolíticas são uma relíquia arriscada, e a adoção de modelos de confiança baseados na separação de responsabilidades, como o da Anthropic, é um passo fundamental. Este movimento não só reforça a cibersegurança, mas também pavimenta o caminho para uma integração mais confiável e ética da inteligência artificial em todos os setores. O futuro dos agentes de IA depende de quão bem conseguimos conter seus riscos.
Gostou da notícia?
Inscreva-se na nossa newsletter para receber as principais novidades sobre inteligência artificial diretamente no seu e-mail.