Inteligência artificial na prática jurídica, no mercado de trabalho e na pesquisa
O direito é uma das profissões mais antigas e mais resistentes à mudança tecnológica. Durante séculos, o seu núcleo — compreender fatos, aplicar normas, construir argumentos persuasivos — pareceu impermeável à automação. A inteligência artificial mudou essa equação de forma abrupta e irreversível.
Em 2023, a Goldman Sachs estimou que 44% das tarefas do setor jurídico podem ser automatizadas por IA generativa — a maior taxa entre todas as profissões analisadas, ao lado de funções administrativas. Para o pesquisador do direito, isso não é apenas uma curiosidade estatística: é um objeto de estudo urgente, com consequências reais para o mercado de trabalho, para o acesso à justiça e para a organização do próprio sistema jurídico.
A IA também abre possibilidades metodológicas inéditas para a pesquisa jurídica: processar corpus extensos de acórdãos, identificar padrões latentes no comportamento judicial e testar hipóteses em escala impossível para métodos qualitativos tradicionais. Pesquiso esses temas na interface entre ciência política e direito — tanto na dimensão acadêmica quanto na prática, desenvolvendo ferramentas concretas para o trabalho jurídico.
Nos Estados Unidos e no Reino Unido, os grandes escritórios de advocacia — o chamado Big Law — estão redesenhando sua estrutura interna de forma silenciosa, mas consistente. Durante décadas, o modelo foi o da pirâmide: muitos associates juniores na base, realizando pesquisa, revisão documental e redigindo minutas, enquanto os partners seniores gerenciavam clientes e estratégias. A IA está erodindo a base dessa pirâmide.
Os dados estruturais são reveladores: segundo levantamento do ABA Journal, a proporção de associates no total de advogados dos maiores escritórios americanos caiu de 44,5% no período 2005–2009 para 40,2% entre 2020 e 2024. No mesmo período, a fatia de partners não-sócios cresceu — sinal de que os escritórios estão preferindo profissionais com mais experiência a sustentar uma grande massa de juniores. Em 2025, reportagens do Legal.io e do próprio setor registraram desaceleração nas contratações de turmas de juniores, com escritórios priorizando recrutamentos laterais de profissionais seniores.
Os cortes já aconteceram, mas por enquanto atingiram principalmente o back-office: a Baker McKenzie anunciou em fevereiro de 2026 a eliminação de 700 a 1.000 postos em funções de suporte — pesquisa, marketing, secretariado — citando explicitamente a IA como fator. A Clifford Chance fez o mesmo em novembro de 2025, cortando 10% do back-office londrino. O relatório do Harvard Law School Center on the Legal Profession registrou um caso emblemático: um sistema de IA reduziu o tempo de resposta de um associate de 16 horas para 3 a 4 minutos em litígios de alto volume. Quando uma tarefa que antes justificava semanas de trabalho junior passa a ser executada em minutos, a estrutura de honorários por hora trabalhada — ainda dominante no setor — deixa de fazer sentido.
É preciso, porém, ser preciso: a narrativa de colapso no emprego de advogados ainda não encontra respaldo empírico. Os dados de emprego de formandos em direito nos EUA em 2024 registraram o maior índice histórico — 93,4% empregados em dez meses. O que está em curso é uma transformação estrutural mais lenta e complexa: a pirâmide do Big Law está se tornando um cilindro — menos juniores, mais seniores, e um volume crescente de trabalho sendo absorvido por ferramentas de IA.
Se a mudança é mais gradual do que a narrativa alarmista sugere, ela não é menos real. E o fenômeno mais interessante — do ponto de vista tanto sociológico quanto prático — não é o desaparecimento de postos de trabalho, mas o achatamento da hierarquia dentro da profissão jurídica.
Historicamente, o trabalho jurídico era fortemente estratificado: os juniores realizavam as tarefas operacionais — pesquisa de jurisprudência, revisão de contratos, triagem de documentos — enquanto os seniores exerciam o julgamento de alto nível. Essa divisão tinha uma função de aprendizado: o junior acumulava experiência fazendo o trabalho de base antes de ser promovido. A IA comprime esse percurso de forma radical. Um advogado com dois anos de carreira que domina as ferramentas disponíveis consegue hoje produzir pesquisa, minutas e análises que antes exigiriam cinco ou dez anos de experiência.
Esse achatamento, porém, tem uma face perversa: se a IA elimina a necessidade do trabalho de base, como os juniores vão aprender o que a IA ainda não sabe fazer? O exercício do julgamento jurídico qualificado — reconhecer quando a IA está errada, avaliar contextos que os dados não capturam, construir argumentos estratégicos originais — exige experiência prévia que se construía exatamente nas tarefas que estão sendo automatizadas. Há um paradoxo real: a IA pode estar destruindo o caminho pelo qual gerações de advogados chegaram ao ponto de exercer julgamento de alto nível.
No plano dos clientes e do acesso à justiça, o cenário também é ambíguo. A IA não está democratizando o acesso aos grandes escritórios — pelo contrário: os dados do ABA Legal Technology Survey 2024 mostram que 47,8% dos escritórios com mais de 500 advogados já adotaram ferramentas de IA, contra 17,7% dos advogados solo. Quem tem mais capital tem mais acesso às ferramentas mais sofisticadas, ampliando uma desigualdade já existente. Por outro lado, ferramentas de IA voltadas diretamente ao público estão reduzindo o custo de acesso a orientação jurídica básica para quem jamais poderia contratar um advogado — uma forma real, ainda que incompleta, de democratização.
O achatamento promovido pela IA tem um limite preciso: ele equaliza o que é possível aprender e replicar — pesquisa, redação, triagem, análise de jurisprudência. Mas a parte do trabalho jurídico de alto valor que se apoia em capital social — relações construídas ao longo de décadas, reputação em tribunais específicos, acesso informal a decisores — permanece, ao menos por enquanto, fora do alcance dos algoritmos. E aqui surge uma consequência perversa e pouco discutida: se a IA nivela a competência técnica e reduz o diferencial de conhecimento entre o advogado sênior e o júnior, o que fica valendo mais é exatamente o que não se aprende nos livros.
A sociologia do campo jurídico — desenvolvida no Brasil por pesquisadores como Fabiano Engelmann (UFRGS) e Andrei Koerner (Unicamp), a partir das categorias de Bourdieu — já demonstrou que a estrutura da advocacia de elite não é explicada apenas pela competência técnica, mas pela acumulação de capital social, simbólico e relacional. Advogados de destaque constroem carreiras em torno de vínculos com tribunais específicos, reputações que antecedem qualquer petição e relações que transcendem os autos. Esses ativos não são replicáveis por IA — e, num cenário em que a competência técnica se democratiza, eles podem se tornar ainda mais decisivos.
A questão que a IA coloca, porém, não é apenas de mercado — é de transparência. O que antes operava na invisibilidade dos bastidores pode agora ser examinado em escala. Os dados processuais são públicos: quem advogou para quem, em qual tribunal, diante de qual relator, com qual taxa de êxito. A análise sistemática desses padrões — tecnicamente viável a partir do DataJud, o banco de dados processual do CNJ — pode tornar visível o que sempre foi informal. Uma investigação jornalística de 2026 constatou que parentes de oito ministros do STF atuaram em mais de 1.900 processos nos tribunais superiores, com 70% desses casos protocolados após a posse dos respectivos ministros. Um único advogado, filho de ministro, passou de 5 para 544 processos no STJ no período subsequente à nomeação paterna. O dado não estava oculto — estava disperso. A IA é a ferramenta que permite agregar dispersão em padrão e padrão em evidência.
Isso não resolve o problema — conhecer o padrão não equivale a eliminá-lo. Mas coloca sobre ele uma luz que antes não existia. E coloca também uma questão de pesquisa: em que medida as taxas de êxito nos tribunais superiores são explicáveis pela qualidade técnica das peças e em que medida são explicadas por variáveis relacionais? É uma pergunta empiricamente respondível, desde que alguém se disponha a respondê-la com dados.
O Brasil tem 84 milhões de processos em tramitação — dado do Relatório Justiça em Números 2024 do CNJ —, o que equivale a quase um processo para cada três habitantes. O Judiciário brasileiro consome entre 1,3% e 1,6% do PIB, percentual que nos coloca entre os sistemas judiciais mais caros do mundo. Parte desse custo não reflete complexidade real dos conflitos: reflete uma estrutura de incentivos que, durante décadas, tornou racional para certos litigantes prolongar processos ao máximo.
Essa lógica é bem documentada pelo próprio CNJ: os 100 maiores litigantes respondem por mais de um terço de todas as ações ajuizadas no Brasil, e o Estado — União, estados, municípios, autarquias — ocupa consistentemente as primeiras posições. Para um grande devedor, recorrer sistematicamente mesmo sabendo que vai perder é racional: o custo de continuar é menor do que o custo de pagar agora. Para um escritório de advocacia remunerado por hora, processos que se arrastam por anos são financeiramente preferíveis a processos resolvidos em meses. O resultado é um equilíbrio perverso: o sistema que deveria resolver conflitos tem seus próprios agentes com incentivos para mantê-los abertos.
A IA atinge esse modelo por dois lados simultaneamente. Pelo lado dos tribunais: o STF opera desde 2018 o Projeto VICTOR, que classifica automaticamente repercussão geral em recursos; o STJ lançou em fevereiro de 2025 o STJ Logos, motor de IA generativa voltado especificamente para atacar o acervo de recursos inadmitidos — aqueles cujo único efeito prático é consumir tempo do sistema. O CNJ registrou em 2024 que 63% dos tribunais brasileiros já desenvolvem projetos de IA, número que cresceu 26% em relação a 2022. Pelo lado dos litigantes: ferramentas de análise preditiva permitem agora estimar, com crescente precisão, a probabilidade de sucesso de um recurso antes de interpô-lo. Quando o cálculo de risco se torna transparente, a racionalidade da protelação muda.
O impacto profissional pode ser significativo. Escritórios que construíram modelos de negócio ao redor da advocacia de massa recursal — honorários por hora, recursos em série, incidentes processuais como instrumento tático — enfrentam uma dupla pressão: tribunais mais eficientes que processam recursos com maior velocidade e clientes com acesso a análise preditiva que reduz a disposição de pagar por recursos com baixa probabilidade de êxito. É uma crise de modelo, não de competência técnica. Os advogados que sobrevivem melhor a essa pressão são os que baseiam sua proposta de valor em resultado — e que, portanto, já tinham incentivos para resolver casos rapidamente.
Resta uma pergunta que não tem resposta certa: o que acontece com o sistema de justiça se uma parte relevante dos processos que hoje tramitam for resolvida ou filtrada rapidamente pela IA? A hipótese otimista é que o estoque acumulado diminui e o sistema fica mais ágil para os casos genuinamente complexos. A hipótese pessimista — e há precedente histórico para ela — é que a eficiência libera capacidade que é imediatamente preenchida por nova demanda reprimida. No limite, um sistema de justiça mais rápido pode atrair mais litígios, não menos. O equilíbrio final depende de como os incentivos dos agentes se reorganizam — e isso é, em sua essência, uma pergunta de ciência política, não de tecnologia.
O Brasil não está isolado dessas tendências. Mais de 55% dos advogados brasileiros já utilizam ferramentas de IA generativa, e 95% dos profissionais jurídicos globais — segundo a Thomson Reuters — esperam que a IA se torne central ao seu fluxo de trabalho nos próximos cinco anos. A OAB aprovou em 2024 a Recomendação n. 001/2024 sobre uso ético de IA na prática jurídica, e em 2025 lançou uma pesquisa nacional para mapear o impacto concreto da tecnologia no setor.
O que falta no Brasil — e que existe nos EUA e no Reino Unido — é pesquisa empírica de qualidade sobre os efeitos da IA no mercado jurídico nacional. Sabe-se que a adoção cresceu; não se sabe ainda com precisão como ela está afetando as estruturas de carreira, o perfil de contratação nos escritórios, os padrões de honorários ou o acesso à justiça. Essa é uma agenda de pesquisa urgente, e é parte do que me motiva a estudar a intersecção entre IA e direito.
Há duas reações instintivas ao momento atual que me parecem igualmente equivocadas. A primeira é o alarmismo: a IA vai substituir os advogados, o direito vai desaparecer como profissão, não vale a pena investir nessa carreira. A segunda é a negação: a IA é uma ferramenta como qualquer outra, o julgamento jurídico é insubstituível, o setor sabe se adaptar.
Nenhuma das duas posições está à altura da complexidade do fenômeno. Os dados mostram que os empregos jurídicos não estão desaparecendo — mas que a natureza do trabalho está mudando de forma acelerada, e quem não se adaptar vai ficar para trás. Da mesma forma, o julgamento jurídico qualificado continua sendo insubstituível — mas ele precisará ser exercido em cima de uma nova camada de ferramentas que o amplificam. O advogado que sabe usar IA não vai substituir o advogado que não sabe — mas vai produzir mais, em menos tempo, com mais consistência.
Compreender a ferramenta — suas capacidades, seus limites, seus vieses, suas consequências — é a única postura intelectualmente honesta diante desse cenário. É também o que me proponho a fazer, tanto na pesquisa acadêmica quanto no desenvolvimento de sistemas concretos. O futuro do direito não será escrito pelos que ignorarem a IA nem pelos que capitularem a ela, mas pelos que a entenderem bem o suficiente para decidir onde e como usá-la.
Ao longo de anos atuando na interface entre ciência política e direito, percebi uma necessidade concreta: assessores jurídicos dedicam horas a tarefas repetitivas de triagem e análise que a inteligência artificial pode executar em segundos, com alta qualidade e consistência. A partir dessa constatação, desenvolvi um sistema de IA dedicado ao trabalho jurídico da Procuradoria-Geral do Estado de Mato Grosso do Sul.
O sistema não substitui o raciocínio jurídico do assessor — ele o amplifica. Cada análise vem acompanhada de um indicador de confiança explícito e da recomendação de revisão humana sempre que necessário. O objetivo é liberar o profissional das tarefas mecânicas para que possa se concentrar no que realmente exige expertise jurídica.
Em segundos, o sistema compreende o que o autor da ação realmente quer, classifica o caso e aponta o modelo de contestação mais adequado — o que antes demandava horas de leitura e pesquisa manual.
O sistema lê a sentença, verifica sua conformidade com os parâmetros vigentes na PGE-MS e emite uma recomendação clara — anotar, recorrer ou priorizar revisão — com grau de confiança explícito.
O assessor submete uma peça processual e recebe um diagnóstico completo: pontos fortes, problemas identificados com grau de gravidade e sugestões concretas de reescrita. Há ainda um modo de análise estratégica para casos de maior dificuldade.
Com base em qualquer problema jurídico descrito em linguagem natural, o sistema pesquisa automaticamente nas principais cortes do país — STF, STJ e tribunais estaduais — e consolida os resultados mais relevantes para fundamentar a defesa do Estado.
Uma biblioteca viva de documentos jurídicos que cresce com o uso. O sistema conecta automaticamente novos processos aos melhores precedentes e modelos da instituição, transformando o conhecimento acumulado em vantagem operacional imediata.
A partir dos dados extraídos da petição e do modelo mais adequado da biblioteca, o sistema elabora uma minuta de contestação já adaptada ao caso concreto, pronta para revisão e refinamento pelo assessor.
O sistema foi concebido com uma premissa central: inteligência artificial útil não é a que impressiona tecnicamente, mas a que resolve problemas reais de pessoas reais. Na PGE-MS, isso significa reduzir o tempo de triagem de processos, garantir maior consistência nas recomendações e permitir que os assessores se concentrem nas decisões que exigem julgamento humano qualificado.
Este projeto é também um laboratório prático da minha pesquisa sobre IA e direito: as mesmas questões que estudo academicamente — viés algorítmico, explicabilidade, responsabilização — precisam ser respondidas concretamente quando o sistema é real e os casos têm consequências para pessoas e para o Estado.