💬 Falar com um especialista
ISO/IEC 42001:2023 · Governança de IA · NIST AI RMF

Sua empresa já usa IA. A questão é se está fazendo isso com governança.

Ferramentas de IA generativa, automação de processos e sistemas de decisão baseados em modelos já estão no dia a dia das organizações — muitas vezes sem políticas, sem avaliação de riscos e sem controles. A ISO 42001 estrutura um Sistema de Gestão de IA (SGAI) para que a adoção de IA seja responsável, segura e auditável. Sócios com experiência em NIST AI RMF e ISO 42001 em campo.

Quem conduz o projeto

🛡️
Sócio-Diretor
Carlos A. I. Bernardo
CISSP · MBA GRC · ISO 22301 LI
🔐
Sócio-Diretor
Rafael de Queiroz Batista
CDPSE · ISO 27701 LI · MSc FGV
10+ anos de projetos em campo
8+ setores atendidos
100% sócios em campo
Por que governar agora

IA sem governança é risco sem controle.

A adoção de IA nas organizações costuma avançar mais rápido do que a capacidade de avaliar seus riscos. Viés algorítmico, vazamento de dados confidenciais em ferramentas externas, decisões automatizadas sem supervisão humana e conformidade regulatória são problemas reais — e crescentes.

🔒

Dados confidenciais em ferramentas de IA externas

Colaboradores que inserem dados de clientes, estratégias de negócio ou informações pessoais em ferramentas de IA generativa criam riscos de privacidade e segurança que a maioria das organizações ainda não mapeou nem controla.

⚖️

Regulação de IA avança globalmente e no Brasil

O AI Act europeu, o Executive Order americano e o PL 2338 brasileiro estabelecem obrigações para quem desenvolve ou usa sistemas de IA de alto risco. A ISO 42001 é o framework de gestão reconhecido internacionalmente para demonstrar conformidade com esses marcos regulatórios.

🎯

Viés, opacidade e decisões automatizadas

Sistemas de IA usados em crédito, contratação, saúde e segurança pública tomam decisões que afetam pessoas. Sem governança, viés algorítmico e falta de explicabilidade criam riscos legais, reputacionais e éticos que as organizações precisam gerenciar ativamente.

🤝

Clientes e parceiros passam a exigir responsabilidade

Contratos de fornecimento de sistemas com IA, processos de due diligence e onboarding de clientes corporativos começam a incluir perguntas sobre governança de IA — políticas de uso, avaliação de riscos e supervisão humana.

🔗

Integração natural com ISO 27001 e ISO 27701

A ISO 42001 foi projetada para se integrar ao ecossistema de normas ISO — organizações com ISO 27001 ou ISO 27701 podem estender sua estrutura de gestão para cobrir os riscos específicos de IA com esforço incremental.

🏗️

IA agêntica aumenta a superfície de risco

Sistemas de IA mais autônomos — que executam ações em cadeia, interagem com APIs e tomam decisões sem intervenção humana direta — ampliam significativamente os riscos operacionais, de segurança e de conformidade. Governança precisa acompanhar essa evolução.

Como atuamos

Consultoria de ponta a ponta — orientamos, não desenvolvemos sistemas

Estruturamos o SGAI, conduzimos a avaliação de riscos dos sistemas de IA em uso e em desenvolvimento, e elaboramos as políticas e controles de governança. Para ajustes técnicos nos sistemas — configuração de logs, controles de acesso, mecanismos de supervisão — orientamos as equipes de TI e desenvolvimento ou especificamos os requisitos.

🎯
O que fazemos

Consultoria, orientação e especificação

  • Inventário dos sistemas de IA em uso e em desenvolvimento na organização
  • Classificação por nível de risco — baixo, médio, alto e inaceitável
  • Avaliação de impacto de IA (AIIA) para sistemas de alto risco
  • Análise de gaps frente à ISO 42001 e ao NIST AI RMF
  • Estruturação do Sistema de Gestão de IA (SGAI)
  • Política de uso responsável de IA e diretrizes por categoria de sistema
  • Processo de aprovação para adoção de novos sistemas de IA
  • Controles de supervisão humana e mecanismos de contestação
  • Gestão de riscos de terceiros — fornecedores de IA e modelos externos
  • Integração do SGAI com ISO 27001 e ISO 27701 existentes
  • Capacitação de equipes técnicas, de negócio e da liderança
  • Auditoria interna e preparação para certificação
🔧
O que executa a equipe do cliente ou fornecedor contratado

Implantação técnica nos sistemas

  • Configuração de logs e rastreabilidade de decisões automatizadas
  • Implantação de controles de acesso a ferramentas e APIs de IA
  • Ajustes nos pipelines de dados para minimização e qualidade
  • Configuração de mecanismos de monitoramento de drift e viés
  • Implantação de controles de supervisão humana nos fluxos automatizados
  • Ajustes em sistemas de IA para explicabilidade e auditabilidade
💡
Por que esse modelo funciona: Definimos quais sistemas precisam de quais controles e como esses controles devem funcionar. A implantação técnica — código, configuração de modelos, ajustes em pipelines — fica com as equipes de desenvolvimento e TI do cliente. A IT SECURE não desenvolve nem opera sistemas de IA.
Metodologia

Do inventário ao SGAI estruturado

A maioria das organizações não sabe exatamente quais sistemas de IA estão em uso, quem os aprovou e quais riscos apresentam. O ponto de partida é sempre o inventário — sem ele, qualquer política de governança de IA é incompleta.

01

Inventário e classificação dos sistemas de IA

Levantamento de todos os sistemas, ferramentas e modelos de IA em uso ou em desenvolvimento na organização — incluindo ferramentas de IA generativa adotadas individualmente por colaboradores. Classificação por nível de risco com base nos critérios da ISO 42001 e do NIST AI RMF.

Inventário · Classificação de risco · NIST AI RMF
02

Análise de gaps e avaliação de impacto

Avaliação do estado atual da organização frente aos requisitos da ISO 42001. Para sistemas de alto risco, condução da Avaliação de Impacto de IA (AIIA) — identificando riscos de viés, opacidade, privacidade, segurança e impacto em direitos fundamentais.

AIIA · Análise de gaps · Alto risco
03

Estruturação do SGAI e política de IA

Definição do escopo do Sistema de Gestão de IA, estrutura de governança e responsabilidades. Elaboração da Política de Uso Responsável de IA — com diretrizes por categoria de sistema, processo de aprovação para novos sistemas e critérios de uso inaceitável.

SGAI · Política de IA · Governança
04

Controles de risco e supervisão humana

Definição e especificação dos controles para cada categoria de risco identificada — supervisão humana, explicabilidade, rastreabilidade, qualidade de dados, gestão de viés e mecanismos de contestação de decisões automatizadas. Especificações técnicas para as equipes de desenvolvimento e TI.

Controles · Supervisão humana · Explicabilidade
05

Gestão de riscos de terceiros e fornecedores de IA

Avaliação dos riscos introduzidos por modelos e plataformas de IA de terceiros — APIs de LLMs, plataformas de automação, ferramentas de análise preditiva. Elaboração de cláusulas contratuais e processo de due diligence para fornecedores de IA.

Third-party AI · Due diligence · Contratos
06

Capacitação, monitoramento e melhoria contínua

Treinamentos por público — liderança, equipes técnicas e usuários de negócio — com foco nos riscos reais do uso corporativo de IA. Definição do processo de monitoramento contínuo dos sistemas, revisão periódica do inventário e ciclo de melhoria do SGAI.

Capacitação · Monitoramento · Ciclo de melhoria

O que está incluído

  • Inventário e classificação dos sistemas de IA em uso
  • Análise de gaps frente à ISO 42001 e NIST AI RMF
  • Avaliação de Impacto de IA (AIIA) para sistemas de alto risco
  • Estruturação do Sistema de Gestão de IA (SGAI)
  • Política de Uso Responsável de IA
  • Processo de aprovação para novos sistemas de IA
  • Controles de supervisão humana e explicabilidade
  • Gestão de riscos de fornecedores e modelos de terceiros
  • Especificações técnicas para equipes de desenvolvimento e TI
  • Integração com ISO 27001 e ISO 27701 existentes
  • Capacitação de liderança, equipes técnicas e usuários
  • Auditoria interna e suporte à certificação
⏱ Prazo médio 4 a 8 meses
Frameworks integrados
ISO 42001:2023NIST AI RMFISO 27001ISO 27701ISO 23894
Falar com um especialista →
Para quem é

Para organizações que usam ou desenvolvem IA

A ISO 42001 é relevante tanto para quem desenvolve sistemas de IA quanto para quem os utiliza — especialmente em decisões que afetam pessoas ou em contextos regulados.

🏦

Setor financeiro e fintechs

Bancos e plataformas que usam IA em análise de crédito, detecção de fraudes, onboarding e atendimento ao cliente — onde decisões automatizadas afetam diretamente os clientes e estão sob escrutínio regulatório crescente do BACEN e da ANPD.

🏥

Saúde e healthtechs

Organizações que usam IA em diagnóstico, triagem, análise de imagens médicas ou gestão de leitos — onde o nível de risco é intrinsecamente alto e a supervisão humana e a explicabilidade são requisitos não negociáveis.

💻

Empresas de tecnologia e ISVs

Desenvolvedoras de software que incorporam IA em seus produtos e precisam demonstrar para clientes corporativos que os sistemas foram desenvolvidos com governança, avaliação de risco e controles de qualidade de dados.

🏭

Indústria e automação de processos

Fabricantes que usam IA em controle de qualidade, manutenção preditiva, otimização de supply chain e automação de linhas — onde falhas dos modelos têm impacto operacional e de segurança diretos.

📣

Marketing, RH e operações com IA generativa

Organizações que adotaram ferramentas de IA generativa em marketing, recrutamento, atendimento e operações — onde o risco de vazamento de dados confidenciais e de uso inadequado dos outputs é real e ainda pouco gerenciado.

🏛️

Setor público e infraestrutura essencial

Órgãos públicos e prestadores de serviços essenciais que usam ou planejam usar IA em decisões que afetam cidadãos — contexto de alto risco regulatório e reputacional onde a governança formal é condição de legitimidade.

Por que a IT SECURE

Expertise que se prova no campo

Não terceirizamos a entrega. Os sócios com CISSP, CDPSE e certificações ISO participam diretamente de cada projeto.

Sócios em campo, sem intermediários

Os mesmos profissionais que assinam a proposta conduzem o projeto. Você fala diretamente com quem tem a expertise e a certificação.

Orientação técnica sem conflito de interesse

Não vendemos tecnologia nem somos parceiros de fabricantes. Nossas especificações são neutras — focadas no que a norma exige, não no que gera comissão.

Mais de uma década de projetos reais

Desde 2015, com engajamentos em 8+ setores — do mercado financeiro à saúde e infraestrutura crítica.

Abordagem people centric

Integramos capacitação e cultura de segurança à orientação técnica — para que sua equipe execute com convicção, não por obrigação.

Professores e instrutores

Os sócios atuam em instituições de ensino como FGV, ABNT, Instituto Mauá de Tecnologia e TIExames, garantindo conhecimento técnico atualizado e em profundidade.

Integração com outras normas

Cada serviço é construído para ser compatível com ISO 27701, 42001, 22301 e frameworks NIST — evitando retrabalho desde o início.

Experiência comprovada

Projetos conduzidos em contextos reais

Em conformidade com o Código de Ética ISC2, preservamos a confidencialidade dos clientes. Os casos abaixo descrevem contextos e entregas reais.

🌾 Fundos de Investimento · Agronegócio

Estabelecimento de padrões de segurança da informação e governança de dados para fundo de investimento e suas empresas investidas no agronegócio

GovernançaISO 42001Gestão de RiscosPortfólio
🏦 Serviços Financeiros · Fintech

Avaliação de riscos e conformidade regulatória para plataforma de serviços financeiros com componentes de decisão automatizada

BACENNIST AI RMFDecisão AutomatizadaConformidade
🧩 Multissetorial · Gestão de Riscos

Análises de riscos de segurança da informação e governança de IA para múltiplas organizações de diferentes setores

ISO 42001NIST AI RMFRisk AssessmentMultissetorial
Ver todos os cases →
Perguntas frequentes

Dúvidas sobre a governança de IA

A ISO 42001 se aplica a quem usa IA ou só a quem desenvolve?
A norma se aplica a ambos. Ela distingue três papéis: o desenvolvedor (que cria o sistema de IA), o provedor (que o disponibiliza) e o operador (que o utiliza em seus processos). A maioria das organizações está no papel de operador — usando ferramentas e modelos de terceiros — e também precisa de governança para esse uso, mesmo que não desenvolva IA internamente.
Nossa empresa usa apenas ferramentas de IA de terceiros, como ChatGPT ou Copilot. Precisamos da ISO 42001?
Sim, se o uso dessas ferramentas é corporativo e envolve dados da organização, de clientes ou de colaboradores. O risco de privacidade, segurança e conformidade existe independentemente de quem desenvolveu o modelo. A ISO 42001 estrutura as políticas de uso, os controles de acesso e os processos de avaliação de risco para esse cenário.
O que é a Avaliação de Impacto de IA (AIIA) e quando é necessária?
A AIIA é o processo estruturado de identificação e avaliação dos riscos de um sistema de IA — para as pessoas afetadas, para a organização e para a sociedade. É especialmente necessária para sistemas classificados como de alto risco: os que tomam ou influenciam decisões sobre crédito, contratação, saúde, segurança pública ou que afetam grupos vulneráveis.
Como a ISO 42001 se integra à ISO 27001 que já temos?
A ISO 42001 foi projetada para integrar-se ao Sistema de Gestão de Segurança da Informação (SGSI) da ISO 27001. Estrutura de gestão, política, avaliação de riscos, auditorias internas e análise crítica seguem os mesmos princípios — o que significa que organizações com ISO 27001 madura têm uma base sólida para implementar a 42001 com esforço incremental relevantemente menor.
O que muda com a regulação de IA que está sendo aprovada no Brasil?
O PL 2338 em tramitação no Brasil segue a estrutura do AI Act europeu — classificando sistemas de IA por nível de risco e impondo obrigações crescentes para sistemas de alto risco. Organizações que implementam a ISO 42001 agora constroem a estrutura de governança necessária para demonstrar conformidade com essa regulação quando ela entrar em vigor, evitando a corrida de última hora.
Quanto tempo leva a implementação?
O prazo médio é de 4 a 8 meses, dependendo do número e da complexidade dos sistemas de IA em uso, da maturidade atual em gestão de riscos e da existência de ISO 27001. Organizações com maturidade em segurança da informação tendem a avançar mais rapidamente, pois já têm estrutura de gestão, processos de auditoria e cultura de controles estabelecida.

IA já está na sua organização. A governança também deveria estar.

Fale diretamente com nossos sócios. A conversa inicial é sem custo e sem compromisso — e já nos permite mapear quais sistemas de IA na sua organização apresentam os maiores riscos e por onde começar.

Diagnóstico inicial sem custo
Mapeamento preliminar dos riscos de IA da sua organização
Contato direto com sócios com experiência em NIST AI RMF e ISO 42001
Fale com nossos sócios
Contato direto — sem formulários, sem triagem
✉️
E-mail
contato@itsecure.com.br
🔒 Suas informações são tratadas com sigilo absoluto — em conformidade com a LGPD e com nossos próprios padrões de privacidade.