O Relatório Gravitee sobre o Estado da Segurança dos Agentes de IA 2026, baseado num inquérito a 900 executivos e profissionais técnicos dos Estados Unidos e do Reino Unido, documenta que 88% das organizações confirmaram ou suspeitaram de incidentes de segurança ou privacidade de dados com agentes de IA no último ano. Na área da saúde especificamente, onde os agentes de IA estão integrados nos fluxos de trabalho clínicos, sistemas de registo eletrónico de saúde (EHR), plataformas de diagnóstico, infraestruturas de faturação e cadeias de abastecimento, esse valor atinge os 92,7% — o mais elevado de todos os setores analisados. O relatório indica que as grandes empresas nestes países implementaram, em conjunto, 3 milhões de agentes de IA, sendo que quase metade — 1,5 milhão — opera sem qualquer monitorização ativa ou controlos de segurança, ficando vulneráveis a ações não autorizadas à velocidade da máquina.
As conclusões revelam uma crise de identidade fundamental subjacente a estes incidentes. Segundo o relatório, 45,6% das equipas dependem de chaves API partilhadas para a autenticação entre agentes — uma falha de segurança fundamental nas credenciais que o MITRE ATT&CK classifica sob T1552 (Credenciais Não Seguras). Apenas 21,9% das equipas técnicas tratam os agentes de IA como entidades independentes, dotadas de identidade própria, com o seu próprio âmbito de credenciais e linha de base comportamental. Além disso, 82% dos executivos acreditam que as políticas existentes os protegem de ações não autorizadas dos agentes, enquanto apenas 21% têm visibilidade real sobre o que os seus agentes podem aceder, que ferramentas chamam ou que dados tocam.
As organizações de saúde enfrentam consequências particularmente graves devido a estas lacunas de segurança. Os custos médios de violação de dados na saúde são de 9,77 milhões de dólares — o mais elevado de qualquer indústria pelo 13.º ano consecutivo —, com incidentes de IA oculta a acrescentar uma média de 670.000 dólares por incidente. O Índice de Inteligência de Ameaças IBM X-Force 2026 documentou um aumento de 44% nos ataques que começam com a exploração de aplicações voltadas para o público, impulsionado em grande parte pela falta de controlos de autenticação. Na HIMSS 2026 — a maior conferência de tecnologia da saúde —, especialistas manifestaram preocupações de que agentes de IA da Epic, Google, Microsoft e outros estão a ser implementados sem testes clínicos ou validação de governança suficientes, conforme relatado pela STAT News.
O relatório da Gravitee documenta que as estruturas de segurança atuais, concebidas para software determinístico, são estruturalmente incapazes de governar sistemas autónomos que raciocinam, adaptam-se e agem dinamicamente. Estruturas como a NIST AI RMF e a ISO 42001 fornecem estruturas de governança organizacional, mas não abordam os controlos técnicos específicos necessários para implementações agentivas: validação de parâmetros de chamada de ferramentas, aplicação de âmbito em tempo real, pontuação de confiança de identidade pré-execução ou fusão contextual da cadeia de eliminação. A monitorização em tempo de execução pode observar um agente a fazer algo que não deveria, mas não pode impedi-lo de o fazer.
A VectorCertain LLC afirma que a sua plataforma SecureAgent teria bloqueado todas as classes de falhas documentadas antes de atingirem os registos de pacientes, bases de dados ou sistemas clínicos. A empresa afirma que o seu pipeline de governança de quatro portas pré-execução foi validado em quatro estruturas: as 278 declarações de diagnóstico de cibersegurança do Perfil CRI v2.1 (incluindo os controlos PROTECT e DETECT mapeados para a HIPAA), os 230 objetivos de controlo da FS AI RMF do Tesouro dos EUA, os resultados do sprint MITRE ATT&CK ER7++ (11.268 testes, 0 falhas) e a autoavaliação MITRE ATT&CK ER8 (14.208 tentativas, TES 98,2%). Segundo a VectorCertain, o SecureAgent atinge uma taxa de falsos positivos de 1 em 160.000 — 53.333 vezes inferior à média da indústria de EDR.
As implicações do relatório vão além das preocupações imediatas de segurança para questões fundamentais sobre a governança da IA em infraestruturas críticas. Com os agentes de IA agora integrados em componentes centrais de sistemas distribuídos e a comportarem-se como infraestrutura autónoma que herda as mesmas expectativas de segurança de qualquer serviço de produção, o risco principal já não é que um agente possa estar incorreto, mas sim que seja demasiado eficiente a realizar ações para as quais nunca foi concebido. O relatório completo da Gravitee está disponível em https://www.gravitee.io/state-of-ai-agent-security.

