Segurança da Informação & Direito Digital

A inteligência artificial introduz novos tipos de registros eletrônicos na prática jurídica. O caminho não é evitá-los, mas compreendê-los e estruturar sua gestão dentro das boas práticas já estabelecidas pela OAB, pelo CNJ e pela legislação vigente.


A relação entre Direito e Tecnologia da Informação é mais antiga do que parece. Já nas tabuletas de argila com escrita cuneiforme do Código de Hamurabi, os primeiros sistemas de registro de informações serviam para formalizar contratos e fatos relevantes, funcionando como referência e, em muitos casos, como prova na resolução de disputas legais. O suporte muda, mas a função persiste: registrar para provar.

Não surpreende, portanto, que conversas com sistemas de inteligência artificial generativa passem a integrar o universo dos litígios modernos, seja como documentos, indícios, elementos periciais ou parte de cadeias decisórias apoiadas por tecnologia. O que muda agora é a escala, a naturalidade com que essas interações ocorrem e, em muitos casos, o desconhecimento sobre suas implicações do ponto de vista da segurança da informação e da conformidade regulatória.

Um precedente que define o novo cenário

O debate não é novo. Assistentes de voz como a Amazon Alexa já protagonizaram episódios emblemáticos: dados captados por dispositivos domésticos inteligentes foram utilizados como prova em investigações e processos judiciais, inaugurando discussões sobre privacidade, admissibilidade da prova e os limites da tecnologia no processo. Com a IA generativa, o padrão se expande e se aprofunda.

Esse cenário foi ilustrado recentemente por uma reportagem da Reuters, publicada pelo InfoMoney, sob o título “Histórico de conversa com IA gera alerta de advogados nos EUA”, que descreve a requisição judicial de registros oriundos de conversas com um chatbot de IA. O episódio não cria um problema novo, mas materializa, na prática, uma consequência direta do ambiente discutido neste artigo: sistemas que processam dados geram registros, e registros, quando não governados, tornam‑se acessíveis e judicializáveis.

O ordenamento jurídico brasileiro tem institutos próprios e o precedente citado no artigo não se transplanta automaticamente, cabendo ao jurídico de cada organização avaliar as implicações locais. O que o caso evidencia, no entanto, é algo que a área de segurança da informação já sabe há muito tempo: todo sistema que processa dados gera registros, e registros têm ciclo de vida, custódia e potencial de requisição.

O que a legislação brasileira já estabelece

Do ponto de vista da conformidade, o cenário brasileiro está longe de um vazio normativo. Tanto os escritórios de advocacia quanto os departamentos jurídicos de empresas já dispõem de referências claras para orientar o uso de IA generativa. Conhecê-las é o ponto de partida para implementar controles adequados.

Marco normativo aplicável

Recomendação OAB n. 001/2024 — Aprovada pelo Conselho Federal em 11 de novembro de 2024, orienta o uso ético da IA generativa na advocacia, estruturada em cinco capítulos cujos pilares temáticos são: conformidade legal, confidencialidade e privacidade, prática jurídica ética e comunicação sobre o uso de IA generativa. Do ponto de vista técnico, o aspecto mais relevante é o eixo de confidencialidade: a OAB orienta explicitamente que os profissionais escolham ferramentas que adotem medidas de segurança e que não utilizem os dados inseridos para treinamento de modelos.

Resolução CNJ n. 615/2025 — Em vigor desde julho de 2025, estabelece diretrizes de governança de IA no Poder Judiciário e exige supervisão humana efetiva em todo processo decisório apoiado por tecnologia. Para a área técnica, representa um sinal claro de que o ambiente judicial brasileiro está se estruturando para lidar com evidências e registros gerados por sistemas de IA.

LGPD (Lei n. 13.709/2018) — Aplica-se integralmente aos dados pessoais de clientes, partes e terceiros que circulam em conversas com assistentes de IA. A ausência de política de uso e de registros de tratamento caracteriza descumprimento das obrigações do controlador, com implicações tanto para escritórios quanto para empresas.

Estatuto da Advocacia (Lei n. 8.906/1994) e Código de Ética da OAB — O dever de sigilo profissional preexiste à IA e a ela se estende. Do ponto de vista da segurança da informação, isso impõe requisitos técnicos concretos sobre qualquer ferramenta adotada no ambiente jurídico.

O risco não é gerar registros: é não governá-los

A questão central, vista pelo ângulo da segurança da informação, não é evitar que registros existam. Registros digitais são o substrato da era da informação, e o Direito os reconhece como meios de prova legítimos há décadas. O problema é outro: garantir que os registros gerados no ambiente jurídico sejam produzidos, armazenados e custodiados dentro das condições que a lei e a ética profissional exigem.

Quando um profissional insere dados identificáveis de um cliente em um chatbot público sem garantias contratuais de confidencialidade por parte do fornecedor, ele pode estar expondo informações sensíveis a terceiros, incluindo o próprio provedor da plataforma. Isso não é risco hipotético: é uma lacuna de gestão de dados com consequências éticas, regulatórias e, potencialmente, processuais. Da mesma forma, empresas que adotam ferramentas de IA sem políticas internas definidas criam zonas cegas de governança que dificultam tanto a resposta a incidentes quanto o cumprimento da LGPD.

Como estruturar o uso: boas práticas de governança

A boa notícia é que as práticas de segurança da informação já oferecem respostas maduras para esse tipo de desafio. A novidade está em aplicá-las sistematicamente a um conjunto de ferramentas que cresceu mais rápido do que as políticas das organizações que as adotaram.

Um programa de governança de IA no ambiente jurídico passa, no mínimo, por: mapear quais ferramentas estão sendo usadas e sob quais condições contratuais de retenção e uso de dados; classificar as informações que transitam por esses sistemas segundo seu grau de sensibilidade; definir diretrizes claras sobre o que pode e o que não pode ser submetido a sistemas genéricos de IA; preferir plataformas com contratos que garantam confidencialidade e não uso de dados para treinamento; documentar as finalidades de uso de cada ferramenta como parte dos registros de tratamento exigidos pela LGPD; e estabelecer procedimentos de resposta para o caso de incidentes envolvendo esses registros.

Essas medidas não exigem que o jurídico se torne uma equipe técnica. Exigem que a equipe técnica e o jurídico conversem de forma estruturada, o que é, precisamente, onde a atuação de um consultor especializado agrega valor.

Uma janela de oportunidade para quem se mover primeiro

Escritórios e departamentos jurídicos que estruturarem hoje suas políticas de uso de IA estarão não apenas em conformidade com as normas vigentes, mas também mais bem posicionados para lidar com um volume crescente de casos que envolvem evidências digitais, registros algorítmicos e questões de privacidade tecnológica. Essa competência, ainda rara, tende a se tornar um critério de escolha para clientes corporativos que já enfrentam pressão regulatória em torno da LGPD e da governança de IA.

A ITSecure atua nessa interseção entre segurança da informação e o ambiente jurídico, apoiando escritórios de advocacia e departamentos jurídicos na estruturação de políticas de uso de IA, adequação à LGPD e procedimentos de resposta a incidentes. Não substituímos o olhar jurídico: fornecemos a estrutura técnica e de conformidade que permite ao jurídico atuar com segurança sobre um terreno que ele domina em conteúdo, mas que a tecnologia transformou em infraestrutura.

O suporte mudou. Da argila para o silício. Mas a função de registrar, provar e proteger continua sendo o núcleo do Direito. E ela agora exige, mais do que nunca, que o ambiente tecnológico em que o jurídico opera seja tão bem governado quanto a argumentação que ele produz.

Inteligência Artificial OAB Recomendação 001/2024 CNJ Resolução 615/2025 Governança de IA ISO 42001 LGPD Prova Digital Segurança da Informação Direito Digital
Referências

REUTERS. Histórico de conversa com IA gera alerta de advogados nos EUA. InfoMoney, São Paulo, 15 abr. 2026. Disponível em: https://www.infomoney.com.br/mundo/historico-de-conversa-com-ia-gera-alerta-de-advogados-nos-eua/. Acesso em: 19 abr. 2026.

CONSELHO FEDERAL DA OAB. Recomendação n. 001/2024: uso de inteligência artificial generativa na prática jurídica. Brasília: OAB, 11 nov. 2024.

CONSELHO NACIONAL DE JUSTIÇA. Resolução n. 615, de 11 de março de 2025. Estabelece diretrizes para o desenvolvimento, a utilização e a governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário. Brasília: CNJ, 2025. Disponível em: https://atos.cnj.jus.br/atos/detalhar/6001. Acesso em: 19 abr. 2026.

CA

Autor

Carlos Bernardo

Consultor, Instrutor e Mentor em Segurança da Informação e Gestão de Riscos
IT SECURE Consulting · São Paulo, Brasil

Consultor em Segurança da Informação com formação em Engenharia pela Escola de Engenharia Mauá e MBA em Governança, Riscos, Controles e Compliance. Possui ampla experiência no desenvolvimento e implantação de soluções em hardware, software, sistemas distribuídos, infraestrutura de TI, ambientes internet, segurança da informação, gerenciamento de riscos tecnológicos e computação forense. Atua também como professor em cursos de Segurança da Informação, Segurança Cibernética e Gestão de Riscos na ABNT, no Instituto Mauá de Tecnologia e na TIexames.

Perfil no LinkedIn