IA Agêntica: por que sistemas mais autônomos tornam o fator humano ainda mais crítico
A adoção de IA agêntica marca uma inflexão importante na forma como as organizações operam. Não estamos falando apenas de sistemas que recomendam ações, mas de agentes capazes de planejar, decidir e executar tarefas de forma autônoma, muitas vezes sem supervisão humana direta.
A Gartner sintetiza bem essa virada: até 2028, pelo menos 15% das decisões cotidianas de trabalho deverão ser tomadas autonomamente por sistemas de agentic AI, partindo de 0% em 2024. Em paralelo, a consultoria estima que 33% das aplicações corporativas incorporarão agentes autônomos nesse mesmo horizonte, frente a menos de 1% em 2024. São métricas diferentes, mas que apontam na mesma direção: a autonomia dos sistemas está crescendo rapidamente.
Essa mudança não é apenas tecnológica. Ela é estrutural e altera profundamente o perfil de risco das organizações.
Quando sistemas passam a agir, o risco muda de natureza
A McKinsey observa que agentes autônomos já estão sendo explorados em processos críticos de negócio, justamente porque conseguem operar como verdadeiros digital insiders: entidades com acesso, contexto e poder de execução dentro dos sistemas corporativos.
Esse novo modelo introduz riscos que não existiam em arquiteturas tradicionais. Diferente de sistemas que apenas “respondem” a comandos humanos, agentes podem iniciar ações, encadear decisões e operar com privilégios elevados. Pesquisa citada pela McKinsey aponta que 80% das organizações já relataram comportamentos considerados arriscados por parte de agentes de IA, como exposição inadequada de dados ou acessos não autorizados
O problema não é a tecnologia em si. É a assimetria crescente entre autonomia técnica e capacidade organizacional de governança.
Identidades não humanas: a superfície de ataque invisível
O Fórum Econômico Mundial chama atenção para um efeito colateral pouco visível dessa transformação: a explosão das chamadas identidades não humanas: chaves de API, tokens, contas de serviço e credenciais operadas por agentes.
Essas identidades proliferam rapidamente e, muitas vezes, fora do radar tradicional de segurança. Segundo o WEF, elas estão expandindo a superfície de ataque das organizações em um ritmo superior à capacidade dos times de segurança de monitorá-las, criando novos pontos cegos em ambientes já complexos.
Não se trata de um risco hipotético. Trata-se de uma consequência direta de sistemas que não apenas analisam, mas agem.
O segundo vetor de risco: a erosão do capital humano
A esse cenário soma-se um risco menos debatido e igualmente crítico: a tendência de substituir profissionais experientes por IA, em vez de amplificar sua capacidade.
Do ponto de vista de custo, a lógica parece atraente. Do ponto de vista de risco, é míope.
Essa preocupação não é teórica. Em análise publicada na StateTech Magazine, Alan R. Shark alerta que a substituição de profissionais experientes por sistemas de IA, especialmente em áreas críticas como cibersegurança, tende a enfraquecer o julgamento contextual, aumentar a dependência de sistemas opacos e reduzir a capacidade de resposta em situações complexas ou ambíguas. Para o autor, a IA pode ampliar capacidades humanas, mas não substituir experiência acumulada, senso crítico e responsabilidade decisória.
Estudos globais do ISC² mostram que, apesar do avanço da automação, as organizações continuam enfrentando déficits significativos de competências em segurança, agravados por cortes orçamentários e redução de equipes. O resultado é uma perda gradual de conhecimento institucional, aquele ativo intangível que não aparece no balanço, mas que faz toda a diferença quando sistemas falham, exceções surgem ou decisões precisam ser tomadas sob ambiguidade.
A percepção dos próprios profissionais é clara. Em pesquisa do Fórum Econômico Mundial, 87% dos especialistas em segurança acreditam que a IA vai melhorar seu trabalho, mas apenas 2% acreditam que ela os substituirá completamente. A clareza está no nível técnico, nem sempre no nível orçamentário.
Autonomia crescente + menos supervisão qualificada = risco exponencial
Esses dois vetores — sistemas mais autônomos e equipes humanas menos capacitadas para supervisioná-los — não se somam. Eles se multiplicam.
O resultado é um cenário em que:
- decisões críticas são tomadas por sistemas opacos;
- agentes operam com privilégios elevados;
- e há menos pessoas capazes de auditar, questionar, corrigir ou interromper esses sistemas quando necessário.
É aqui que o risco deixa de crescer de forma linear e passa a crescer de forma exponencial.
A resposta já existe: gestão de riscos aplicada à IA
A boa notícia é que esse não é um território sem mapa. As disciplinas clássicas de gestão de riscos já oferecem estruturas robustas para lidar com esse cenário, desde que sejam aplicadas com seriedade.
A ISO/IEC 23894:2023 adapta os princípios da ISO 31000 às especificidades da IA, abordando temas como opacidade dos modelos, dependência de dados, automação de decisões críticas e comportamento inesperado em contextos não previstos.
Já a ISO/IEC 42001:2023, primeiro padrão internacional dedicado a Sistemas de Gestão de Inteligência Artificial, estabelece requisitos claros para governança, definição de responsabilidades, avaliação de impacto e monitoramento contínuo do uso de IA nas organizações.
Na prática, essas normas convergem em quatro frentes essenciais:
- Inventário e classificação dos sistemas de IA Não se gerencia risco sem saber o que está em uso — inclusive ferramentas não aprovadas formalmente (shadow AI).
- Avaliação de riscos específica para IA Vieses, explicabilidade, rastreabilidade e limites de autonomia não são bem tratados por frameworks tradicionais.
- Política formal de uso e supervisão humana Definir claramente o que pode ser usado, por quem, em que contexto e com qual nível de supervisão.
- Capacitação contínua como controle de risco Treinamento, conscientização e desenvolvimento técnico deixam de ser “soft skills” e passam a ser controles estruturais de risco.
O controle com maior impacto comprovado
Relatórios como o IBM Cost of a Data Breach mostram, ano após ano, que o fator humano continua sendo determinante, tanto como vetor de risco quanto como principal linha de defesa.
O relatório de 2024, que analisou 604 organizações em 17 países, avaliou 28 fatores contribuintes de forma isolada e identificou o treinamento de colaboradores como o principal fator individual de redução de custos, com economia média de US$ 258.629 por incidente, o maior impacto entre todos os fatores avaliados (IBM Security; Ponemon Institute, 2024
Organizações que investem em preparo das pessoas detectam incidentes mais rápido, respondem melhor e reduzem impacto. Tecnologia ajuda, mas não substitui julgamento contextual, experiência e coordenação humana.
Por isso, programas maduros combinam:
- conscientização ampla para todos;
- treinamento específico para áreas críticas;
- capacitação técnica profunda para quem estrutura, audita e governa os sistemas.
Esses níveis não competem entre si. Eles se complementam.
Considerações finais
IA sem governança não é transformação digital. É automação de vulnerabilidades.
A IA agêntica vai ampliar ganhos de produtividade, mas também vai amplificar erros, falhas de controle e decisões mal estruturadas. As organizações que chegarem a esse estágio sem governança, sem equipes capacitadas e sem processos claros enfrentarão riscos de uma natureza diferente da que estão acostumadas a gerir.
As normas existem. As boas práticas estão documentadas. O referencial internacional está disponível.
O que ainda falta, na maioria dos casos, é a decisão de tratar o tema com a seriedade proporcional ao risco que ele representa, antes que um incidente torne essa decisão inevitável.
Governança e capacitação não reduzem apenas exposição. Elas criam a maturidade necessária para extrair o real valor da IA com consciência, critério e controle.
E isso, nenhuma ferramenta entrega sozinha.
Referências
GARTNER, Inc. Gartner identifies the top 10 strategic technology trends for 2025. Orlando, FL, 21 out. 2024. Disponível em: <https://www.gartner.com/en/newsroom/press-releases/2024-10-21-gartner-identifies-the-top-10-strategic-technology-trends-for-2025>. Acesso em: 2 abr. 2026.
McKINSEY & COMPANY. Deploying agentic AI with safety and security: a playbook for technology leaders. McKinsey Quarterly, 16 out. 2025. Disponível em: <https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/deploying-agentic-ai-with-safety-and-security-a-playbook-for-technology-leaders>. Acesso em: 2 abr. 2026.
WORLD ECONOMIC FORUM. Non-human identities: agentic AI’s new frontier of cybersecurity risk. Genebra, 15 out. 2025. Disponível em: <https://www.weforum.org/stories/2025/10/non-human-identities-ai-cybersecurity/>. Acesso em: 2 abr. 2026.
WORLD ECONOMIC FORUM. AI is revolutionizing cybersecurity. How should we train the next generation of defenders? Genebra, 20 nov. 2025. Disponível em: <https://www.weforum.org/stories/2025/11/cybersecurity-ai-professionals-workers/>. Acesso em: 2 abr. 2026.
(ISC)². Cybersecurity workforce study 2025. Clearwater, FL, dez. 2025. Disponível em: <https://www.isc2.org/insights/2025/12/2025-ISC2-Cybersecurity-Workforce-Study>. Acesso em: 2 abr. 2026.
IBM SECURITY; PONEMON INSTITUTE. Cost of a Data Breach Report 2024. 19. ed. Armonk, NY: IBM Corporation, jul. 2024. Disponível em: https://www.ibm.com/reports/data-breach. Acesso em: 2 abr. 2026.
INTERNATIONAL ORGANIZATION FOR STANDARDIZATION; INTERNATIONAL ELECTROTECHNICAL COMMISSION. ISO/IEC 23894:2023 — Information technology: artificial intelligence: risk management. Genebra: ISO/IEC, 2023.
INTERNATIONAL ORGANIZATION FOR STANDARDIZATION; INTERNATIONAL ELECTROTECHNICAL COMMISSION. ISO/IEC 42001:2023 — Artificial intelligence: management system. Genebra: ISO/IEC, dez. 2023.
SHARK, Alan R. Can AI replace human intelligence amid federal cybersecurity budget cuts? StateTech Magazine, 22 abr. 2025. Disponível em: <https://statetechmagazine.com/article/2025/04/can-ai-replace-human-intelligence-amid-federal-cybersecurity-budget-cuts>. Acesso em: 2 abr. 2026.
Como este artigo foi produzido
Seria contraditório escrever sobre o uso responsável da IA sem ser usuário dela e sem aplicar as ideias defendidas. Assim, faz todo sentido usar de forma transparente a inteligência artificial como assistente de edição.
Este artigo foi produzido usando o Claude e o CoPilot como assistentes. Conduzi o processo em todas as etapas: defini o tema, orientei a abordagem, solicitei e validei as fontes, revisei cada versão e ajustei o conteúdo até que refletisse com precisão o que queria comunicar.
A IA fez o trabalho pesado de pesquisa, estruturação e redação. Eu fiz o trabalho que só a experiência na área permite: julgar o que é relevante, o que é preciso e o que realmente importa para quem lê.
Isso é exatamente o que defendo aqui: IA como ferramenta de amplificação do conhecimento humano, não como substituta de quem pensa.
Gostou do conteúdo?
Conheça nossos serviços de consultoria e capacitação em segurança da informação — ou entre em contato para conversarmos sobre os desafios da sua organização.
