IA generativa no ambiente jurídico: governar bem é usar bem
A inteligência artificial introduz novos tipos de registros eletrônicos na prática jurídica. O caminho não é evitá-los, mas compreendê-los e estruturar sua gestão dentro das boas práticas já estabelecidas pela OAB, pelo CNJ e pela legislação vigente.
A relação entre Direito e Tecnologia da Informação é mais antiga do que parece. Já nas tabuletas de argila com escrita cuneiforme do Código de Hamurabi, os primeiros sistemas de registro de informações serviam para formalizar contratos e fatos relevantes, funcionando como referência e, em muitos casos, como prova na resolução de disputas legais. O suporte muda, mas a função persiste: registrar para provar.
Não surpreende, portanto, que conversas com sistemas de inteligência artificial generativa passem a integrar o universo dos litígios modernos, seja como documentos, indícios, elementos periciais ou parte de cadeias decisórias apoiadas por tecnologia. O que muda agora é a escala, a naturalidade com que essas interações ocorrem e, em muitos casos, o desconhecimento sobre suas implicações do ponto de vista da segurança da informação e da conformidade regulatória.
O debate não é novo. Assistentes de voz como a Amazon Alexa já protagonizaram episódios emblemáticos: dados captados por dispositivos domésticos inteligentes foram utilizados como prova em investigações e processos judiciais, inaugurando discussões sobre privacidade, admissibilidade da prova e os limites da tecnologia no processo. Com a IA generativa, o padrão se expande e se aprofunda.
Esse cenário foi ilustrado recentemente por uma reportagem da Reuters, publicada pelo InfoMoney, sob o título “Histórico de conversa com IA gera alerta de advogados nos EUA”, que descreve a requisição judicial de registros oriundos de conversas com um chatbot de IA. O episódio não cria um problema novo, mas materializa, na prática, uma consequência direta do ambiente discutido neste artigo: sistemas que processam dados geram registros, e registros, quando não governados, tornam‑se acessíveis e judicializáveis.
O ordenamento jurídico brasileiro tem institutos próprios e o precedente citado no artigo não se transplanta automaticamente, cabendo ao jurídico de cada organização avaliar as implicações locais. O que o caso evidencia, no entanto, é algo que a área de segurança da informação já sabe há muito tempo: todo sistema que processa dados gera registros, e registros têm ciclo de vida, custódia e potencial de requisição.
Do ponto de vista da conformidade, o cenário brasileiro está longe de um vazio normativo. Tanto os escritórios de advocacia quanto os departamentos jurídicos de empresas já dispõem de referências claras para orientar o uso de IA generativa. Conhecê-las é o ponto de partida para implementar controles adequados.
Recomendação OAB n. 001/2024 — Aprovada pelo Conselho Federal em 11 de novembro de 2024, orienta o uso ético da IA generativa na advocacia, estruturada em cinco capítulos cujos pilares temáticos são: conformidade legal, confidencialidade e privacidade, prática jurídica ética e comunicação sobre o uso de IA generativa. Do ponto de vista técnico, o aspecto mais relevante é o eixo de confidencialidade: a OAB orienta explicitamente que os profissionais escolham ferramentas que adotem medidas de segurança e que não utilizem os dados inseridos para treinamento de modelos.
Resolução CNJ n. 615/2025 — Em vigor desde julho de 2025, estabelece diretrizes de governança de IA no Poder Judiciário e exige supervisão humana efetiva em todo processo decisório apoiado por tecnologia. Para a área técnica, representa um sinal claro de que o ambiente judicial brasileiro está se estruturando para lidar com evidências e registros gerados por sistemas de IA.
LGPD (Lei n. 13.709/2018) — Aplica-se integralmente aos dados pessoais de clientes, partes e terceiros que circulam em conversas com assistentes de IA. A ausência de política de uso e de registros de tratamento caracteriza descumprimento das obrigações do controlador, com implicações tanto para escritórios quanto para empresas.
Estatuto da Advocacia (Lei n. 8.906/1994) e Código de Ética da OAB — O dever de sigilo profissional preexiste à IA e a ela se estende. Do ponto de vista da segurança da informação, isso impõe requisitos técnicos concretos sobre qualquer ferramenta adotada no ambiente jurídico.
A questão central, vista pelo ângulo da segurança da informação, não é evitar que registros existam. Registros digitais são o substrato da era da informação, e o Direito os reconhece como meios de prova legítimos há décadas. O problema é outro: garantir que os registros gerados no ambiente jurídico sejam produzidos, armazenados e custodiados dentro das condições que a lei e a ética profissional exigem.
Quando um profissional insere dados identificáveis de um cliente em um chatbot público sem garantias contratuais de confidencialidade por parte do fornecedor, ele pode estar expondo informações sensíveis a terceiros, incluindo o próprio provedor da plataforma. Isso não é risco hipotético: é uma lacuna de gestão de dados com consequências éticas, regulatórias e, potencialmente, processuais. Da mesma forma, empresas que adotam ferramentas de IA sem políticas internas definidas criam zonas cegas de governança que dificultam tanto a resposta a incidentes quanto o cumprimento da LGPD.
A boa notícia é que as práticas de segurança da informação já oferecem respostas maduras para esse tipo de desafio. A novidade está em aplicá-las sistematicamente a um conjunto de ferramentas que cresceu mais rápido do que as políticas das organizações que as adotaram.
Um programa de governança de IA no ambiente jurídico passa, no mínimo, por: mapear quais ferramentas estão sendo usadas e sob quais condições contratuais de retenção e uso de dados; classificar as informações que transitam por esses sistemas segundo seu grau de sensibilidade; definir diretrizes claras sobre o que pode e o que não pode ser submetido a sistemas genéricos de IA; preferir plataformas com contratos que garantam confidencialidade e não uso de dados para treinamento; documentar as finalidades de uso de cada ferramenta como parte dos registros de tratamento exigidos pela LGPD; e estabelecer procedimentos de resposta para o caso de incidentes envolvendo esses registros.
Essas medidas não exigem que o jurídico se torne uma equipe técnica. Exigem que a equipe técnica e o jurídico conversem de forma estruturada, o que é, precisamente, onde a atuação de um consultor especializado agrega valor.
Escritórios e departamentos jurídicos que estruturarem hoje suas políticas de uso de IA estarão não apenas em conformidade com as normas vigentes, mas também mais bem posicionados para lidar com um volume crescente de casos que envolvem evidências digitais, registros algorítmicos e questões de privacidade tecnológica. Essa competência, ainda rara, tende a se tornar um critério de escolha para clientes corporativos que já enfrentam pressão regulatória em torno da LGPD e da governança de IA.
A ITSecure atua nessa interseção entre segurança da informação e o ambiente jurídico, apoiando escritórios de advocacia e departamentos jurídicos na estruturação de políticas de uso de IA, adequação à LGPD e procedimentos de resposta a incidentes. Não substituímos o olhar jurídico: fornecemos a estrutura técnica e de conformidade que permite ao jurídico atuar com segurança sobre um terreno que ele domina em conteúdo, mas que a tecnologia transformou em infraestrutura.
O suporte mudou. Da argila para o silício. Mas a função de registrar, provar e proteger continua sendo o núcleo do Direito. E ela agora exige, mais do que nunca, que o ambiente tecnológico em que o jurídico opera seja tão bem governado quanto a argumentação que ele produz.
REUTERS. Histórico de conversa com IA gera alerta de advogados nos EUA. InfoMoney, São Paulo, 15 abr. 2026. Disponível em: https://www.infomoney.com.br/mundo/historico-de-conversa-com-ia-gera-alerta-de-advogados-nos-eua/. Acesso em: 19 abr. 2026.
CONSELHO FEDERAL DA OAB. Recomendação n. 001/2024: uso de inteligência artificial generativa na prática jurídica. Brasília: OAB, 11 nov. 2024.
CONSELHO NACIONAL DE JUSTIÇA. Resolução n. 615, de 11 de março de 2025. Estabelece diretrizes para o desenvolvimento, a utilização e a governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário. Brasília: CNJ, 2025. Disponível em: https://atos.cnj.jus.br/atos/detalhar/6001. Acesso em: 19 abr. 2026.
Gostou do conteúdo?
Este artigo trouxe reflexões que dialogam com situações reais da sua empresa ou levantou ideias que podem ser aplicadas para fortalecer sua postura em segurança, governança ou capacitação? Se fizer sentido, você pode agendar uma conversa inicial para discutir como esses temas se aplicam ao seu contexto específico.
