I. Da Ruptura Paradigmática:
O ordenamento jurídico brasileiro enfrenta sua mais significativa crise epistemológica desde a digitalização dos processos judiciais. A emergência da inteligência artificial agêntica – sistemas dotados de autonomia decisória e capacidade executória independente – representa não uma evolução incremental, mas uma ruptura fundamental com os pressupostos basilares da teoria da responsabilidade civil e penal que estruturam nosso sistema legal.
Imagine descobrir que empresas farmacêuticas começaram a distribuir medicamentos experimentais diretamente ao consumidor, acompanhados apenas de avisos genéricos sobre “possíveis efeitos colaterais desconhecidos”. Parece absurdo? É exatamente o que está acontecendo com a inteligência artificial agêntica no Brasil – e o sistema jurídico ainda não percebeu a magnitude do problema.
Enquanto juristas debatem o ChatGPT, a tecnologia já evoluiu para sistemas que tomam decisões autônomas, executam contratos, enviam comunicações oficiais e movimentam recursos financeiros – tudo sem supervisão humana direta. Bem-vindo à Era Agêntica, onde a IA não apenas responde, mas age em seu nome.
Vivenciamos um experimento social em massa sem precedentes históricos ou salvaguardas jurídicas adequadas. A analogia com a distribuição desregulada de fármacos experimentais, longe de ser hiperbólica, subdimensiona a gravidade da situação: enquanto medicamentos afetam indivíduos, sistemas agênticos impactam simultaneamente relações contratuais, processuais e institucionais em escala massiva.
II. Caracterização Técnico-Jurídica da IA Agêntica
Elementos Constitutivos e Distintivos
A inteligência artificial agêntica distingue-se dos sistemas assistivos tradicionais por quatro características técnicas com profundas implicações jurídicas:
a) Autonomia Decisória Probabilística– Diferentemente de algoritmos determinísticos, sistemas agênticos operam através de redes neurais profundas com bilhões de parâmetros, gerando outputs probabilísticos. Esta característica implica impossibilidade de previsibilidade absoluta .
b) Capacidade Executória Direta -Transcendendo a mera consultoria, sistemas agênticos executam ações com efeitos jurídicos diretos: protocolização, movimentação financeira, celebração de contratos, envio de mensagens, e-mails, etc.
c) Aprendizado Adaptativo Contínuo – Através de reinforcement learning (Aprendizado por Reforço) e fine-tuning (ajuste fino) constante, estes sistemas modificam seus padrões decisórios pós-deployment (fase pós-implantação). Esta mutabilidade comportamental desafia o princípio da segurança jurídica e a previsibilidade necessária ao devido processo legal.
d) Opacidade Algorítmica Intrínseca – A natureza “black box” das redes neurais profundas torna impossível rastrear o processo decisório específico.
III. Proposições para um Framework Jurídico-Regulatório Adequado
3.1. Taxonomia Jurídica de Autonomia
Propomos uma classificação tripartite com consequências jurídicas específicas: Nível 1 – Assistiva : responsabilidade integral do usuário; Nível 2 – Semi-Autônoma e Nível 3 – Agêntica: Responsabilidade compartilhada via teoria do risco criado.
3.2. Protocolos de Segurança Escalonados
a) Avaliação prévia rigorosa antes da implementação
- Auditoria de código e dados de treinamento
- Testes de adversarial attacks
- Certificação por entidade independente
b) Monitoramento Contínuo
- Logs imutáveis em blockchain
- Análise de drift comportamental
- Circuit breakers automáticos para anomalias
c) Procedimento padrão para lidar com incidentes
- Notificação obrigatória em 72 horas
- Preservação de evidências digitais
- Relatório técnico-pericial padronizado
3.3. Instrumentos de Mitigação de Risco
a) Seguro de Responsabilidade Civil Profissional Específico – Cobertura obrigatória para:
- Decisões autônomas prejudiciais
- Violação de sigilo por IA
- Perdas financeiras por falha algorítmica
b) Sandboxes Regulatórios Ambientes controlados para teste de sistemas agênticos antes do deployment em produção, com supervisão do MP e OAB.
IV. Recomendações Práticas Imediatas para Operadores do Direito
Protocolo de Implementação Segura: Letramento Urgente em IA
- Assessment (avaliação) de Maturidade Digital
- Inventário de sistemas atuais – Realizar um levantamento completo dos sistemas tecnológicos existentes, quais são suas funcionalidades, quem os usa, como são geridos, e como interagem com tecnologias emergentes (como IA).
Objetivo: Ter clareza sobre o cenário atual para planejar melhorias. - Mapeamento de vulnerabilidades – Identificar pontos frágeis ou vulneráveis nos sistemas já utilizados, especialmente vulnerabilidades de segurança cibernética, proteção de dados pessoais (LGPD), ou riscos decorrentes de integração com sistemas de IA.
Objetivo: Minimizar riscos jurídicos, tecnológicos e éticos futuros. - Plano de adequação progressiva – Um roteiro estruturado, com etapas definidas, para alcançar níveis desejáveis de segurança, governança digital, e maturidade tecnológica.
Objetivo: Garantir uma evolução contínua, segura e sustentável da organização em relação às tecnologias digitais. - Documentação Forense Preventiva
- Registro de todas as interações com IA – Manter um registro técnico completo (logs) sobre quando, como e por quem a IA foi utilizada, quais decisões foram tomadas, e quais dados foram utilizados.
Objetivo: Proteger juridicamente a instituição caso surjam questionamentos sobre decisões tomadas com suporte da IA. - Versionamento de prompts e outputs – Registrar de maneira organizada cada “prompt” (comando dado à IA), e cada “output” (resposta ou decisão dada pela IA), incluindo versões anteriores.
Objetivo: Tornar possível auditorias ou perícias posteriores para verificar se o sistema está funcionando de forma ética e adequada, além de permitir eventual defesa jurídica. - Cadeia de custódia digital certificada
- Registro de todas as interações com IA – Manter um registro técnico completo (logs) sobre quando, como e por quem a IA foi utilizada, quais decisões foram tomadas, e quais dados foram utilizados.
- Capacitação Técnico-Jurídica
- Formação em fundamentos de ML/DL – Treinamento sobre conceitos básicos e essenciais de Machine Learning (ML – Aprendizado de Máquina) e Deep Learning (DL – Aprendizado Profundo).
Objetivo: Capacitar profissionais jurídicos a entenderem como as tecnologias funcionam, para que possam avaliar adequadamente as implicações jurídicas e éticas do uso de IA. - Compreensão de vieses algorítmicos – Capacitação para identificar e corrigir possíveis vieses discriminatórios ou éticos presentes em decisões tomadas automaticamente pelas IAs.
Objetivo: Prevenir riscos éticos, jurídicos e sociais decorrentes do uso inadequado ou mal supervisionado dessas tecnologias. - Técnicas de prompt engineering defensivo – Ensinar técnicas de criação e utilização de comandos (prompts) à IA de forma segura, ética e tecnicamente robusta, evitando manipulações, decisões enviesadas, ou vazamentos de informações sensíveis.
Objetivo: Garantir a segurança e eficiência na interação dos profissionais com as ferramentas baseadas em IA, protegendo informações confidenciais e garantindo ética e segurança jurídica.
- Formação em fundamentos de ML/DL – Treinamento sobre conceitos básicos e essenciais de Machine Learning (ML – Aprendizado de Máquina) e Deep Learning (DL – Aprendizado Profundo).
VIII. Conclusão: O Imperativo da Ação Coordenada
A Era Agêntica não representa mera evolução tecnológica, mas uma crise ontológica do Direito. A velocidade exponencial de desenvolvimento tecnológico – modelos evoluindo 5.000% em capacidade em 24 meses – contrasta com a inércia regulatória, criando um hiato de governança sem precedentes.
O Brasil, involuntariamente transformado em laboratório global de experimentação em IA devido à nossa hiperdependência digital (WhatsApp em 99% dos dispositivos, Pix processando R$ 2 trilhões/mês), enfrenta riscos sistêmicos únicos. A ausência de marco regulatório específico, combinada com a sofisticação crescente de ataques via IA (clonagem de voz, deepfakes, prompt injection), cria cenário de “tempestade perfeita” jurídica.
A Recomendação do CF da OAB 001/2024, embora louvável, é manifestamente insuficiente para a atual realidade agêntica. Sua exigência de “revisar integralmente todas as saídas da IA” torna-se impossível quando sistemas executam milhares de micro-decisões por segundo. Necessitamos urgentemente de novo paradigma regulatório que reconheça a autonomia como característica central, não periférica.
A resolução 615/25 do CNJ, objeto de Parecer do IAB (Instituto dos Advogados do Brasil) de relatoria de nossa lavra, por sua vez, é ainda mais frágil, tendo em vista que permite o uso individual de ferramentas privadas de IA por magistrados mediante assinaturas pessoais, sem mecanismos efetivos de verificação da supervisão humana, comprometendo gravemente os princípios de transparência, auditabilidade e explicabilidade. A facultatividade da menção ao uso de IA nas decisões judiciais, combinada com a ausência de capacitação prévia obrigatória e a impossibilidade prática de verificar o cumprimento das condições de segurança estabelecidas, cria cenário de opacidade sistêmica que inviabiliza o controle social e a contestabilidade das decisões. Ademais, a regulamentação pendente dos mecanismos de prestação de informações e a falta de consequências para descumprimento das diretrizes tornam a resolução manifestamente inadequada para governar o uso de IA agêntica no Judiciário, especialmente quando sistemas autônomos podem executar milhares de micro-decisões por segundo sem possibilidade de revisão humana integral.
A proposta de taxonomia tripartite de autonomia, com regimes de responsabilidade diferenciados, oferece caminho pragmático. Contudo, sua implementação exige coordenação sem precedentes entre OAB, CNJ e Congresso Nacional.
O tempo não é aliado. Enquanto debatemos, sistemas agênticos proliferam, decisões autônomas são tomadas, direitos são afetados. A escolha não é entre regular ou não regular, mas entre governança proativa ou reativa. A história do Direito demonstra que regulação post-facto de tecnologias disruptivas invariavelmente resulta em custos sociais elevados.
O Direito brasileiro está em ponto de inflexão: abraçar a complexidade da Era Agêntica com frameworks jurídicos igualmente sofisticados, ou tornar-se obsoleto, superado por realidade tecnológica que não pede permissão para existir.
A preservação da centralidade humana no Direito não é nostalgia – é imperativo ético. IA agêntica deve amplificar capacidades humanas, nunca substituir o julgamento profissional.
A preservação do Estado Democrático de Direito na Era Agêntica depende de nossa capacidade de evoluir com velocidade proporcional ao desafio apresentado. O relógio não para. A cada milissegundo, decisões autônomas são tomadas, precedentes de facto são criados, e o futuro do Direito é escrito – com ou sem nossa participação consciente.
Esta análise técnico-jurídica baseia-se na conferência “Era Agêntica: O Novo Paradigma da IA e Seus Riscos no Direito” proferida pela Juíza Patrícia Medeiros, Vice Presidente da Comissão de Inteligência Artificial do IAB, no evento SEBRAE RJ Summit 2025, complementada por análise doutrinária e normativa do estado da arte em regulação de sistemas autônomos.

Para aprofundar-se no uso seguro e eficiente da IA no Judiciário, recomenda-se o curso IA Juris Pro: Inteligência Artificial de Alta Performancehttps://pmcursos.com.br/iapro/ no Direito. O curso capacita profissionais jurídicos no uso estratégico da IA, abordando segurança, ética e eficiência processual.