Escritório de Advocacia - Dra. Clarice Beatriz da Costa Söhngen e Ingo Dietrich Söhngen

Colaborador: Gustavo da Costa Söhngen - OAB.RS 120.304.
O nosso escritório é localizado na rua Dr. Barcelos, 612
Bairro Tristeza - Porto Alegre
Rio Grande do Sul - Brasil.
CEP 91910-251

OAB.RS 28.698 e 28.475

Telefone: 051 32685166
Whats App : 051 992738835
e-mail: sohngen@gmail.com

Atuamos nas áreas do Direito Civil, Direito de Família e Direito do Trabalho.


Marque hora para consulta.

Busca no Blog e em Sites Referenciados

Hora legal brasileira

https://www.horariodebrasilia.org/

domingo, 23 de março de 2025




Por Que as IAs Jurídicas Inventam Jurisprudência



Imagem criada pela IA SDXL V1.0 em suporte Sider


A integração de ferramentas de Inteligência Artificial (IA) na prática jurídica tem revolucionado a maneira como advogados e juristas pesquisam, estruturam argumentos e redigem documentos. Com o uso de modelos linguísticos avançados, como ChatGPT e outros sistemas generativos, há uma capacidade sem precedentes de produzir textos de alta fluência e coerência. Contudo, esse avanço vem acompanhado de desafios relevantes, especialmente no que se refere à confiabilidade das citações e da jurisprudência gerada pela IA.

Muitos profissionais do Direito relatam que, ao utilizar essas ferramentas, as referências a decisões judiciais e doutrinas que são fornecidas não correspondem à realidade. Este relatório busca explicar, em detalhes e de forma acessível, por que as IAs frequentemente "inventam" ou alucinam conteúdo jurídico.

## Principais Pontos

 

  1.  Fenômeno das Alucinações
  2.  Limitações dos dados de treinamento
  3.  Falhas de validação
  4.  Complexidade jurídica
  5.  Estratégias de Mitigação

 

*Por Que as IAs Jurídicas Inventam Jurisprudência: Análise detalhada das causas, consequências e soluções para o fenômeno das "alucinações"*

 

## 1. O Fenômeno das "Alucinações" em IAs Jurídicas

### O Que São Alucinações?

No contexto da IA, alucinação refere-se à capacidade dos modelos em produzir conteúdo que, embora coerente e fluido, não possui embasamento factual. Esse comportamento decorre da forma como esses modelos são treinados. Eles processam enormes volumes de texto para aprender padrões e relações linguísticas, mas o objetivo principal não é garantir a veracidade dos dados, e sim produzir respostas que soem "naturais" e completas. Assim, na ausência de uma checagem de autenticidade, o modelo pode criar jurisprudências, citações e até nomes de juristas que não correspondem à realidade.

### Exemplos no Setor Jurídico

Um exemplo bastante citado – e que tem sido notícia em diversas instituições – é o caso registrado pelo Tribunal de Justiça de Santa Catarina (TJSC). Numa situação em que o advogado utilizou o ChatGPT para redigir um recurso, o sistema incluiu citações e referências a doutrinas inexistentes. Essa prática levou à aplicação de multa por litigância de má-fé, evidenciando os riscos de utilizar informações sem a devida verificação. 

Em casos como este, a confiança excessiva na IA sem verificação posterior resultou em consequências graves para o profissional, incluindo sanções disciplinares e danos à reputação. In https://www.tjsc.jus.br/web/imprensa/-/tjsc-multa-autor-de-recurso-por-jurisprudencia-falsa-gerada-por-ia .

**Fluxo de alucinação**

  1.  Entrada de Prompt
  2.  Processamento pelo Modelo
  3.  Geração de Texto
  4.  Citações Fictícias
  5.  Ausência de Validação

 

## 2. Limitações dos Dados de Treinamento e Seus Impactos

### Dados Incompletos e Desatualizados

Os sistemas de IA dependem inteiramente dos dados com os quais foram treinados. Se esses dados estiverem desatualizados ou forem incompletos, a IA pode acabar utilizando informações que não correspondem à realidade atual do Direito. Por exemplo, se um modelo for treinado com decisões judiciais coletadas há muitos anos, ele pode citar jurisprudência que já foi superada ou mesmo elaborar referências que nunca foram registradas posteriormente.

### Viés nos Dados Históricos

Além de lacunas temporais, é importante considerar que os dados históricos podem conter vieses. Decisões judiciais e doutrinas produzidas há décadas podem refletir entendimentos ultrapassados ou até mesmo distorções. Quando o modelo absorve esses vieses sem um filtro para corrigi-los, há um risco aumentado de gerar citações inadequadas ou referenciar casos que não possuem a validade atual.

### Falta de Contexto Adequado

A IA não possui uma compreensão "real" ou contextual do Direito. Ela identifica padrões linguísticos sem compreender o conteúdo do ponto de vista jurídico. Essa limitação é agravada pela complexidade inerente às normas jurídicas, que muitas vezes envolvem interpretações subjetivas e variações de aplicação conforme a jurisdição e o período histórico.

### Exemplo Prático: O Caso de Treinamento com Bases Jurídicas

O caso entre plataformas de pesquisa jurídica é ilustrativo. Algumas IAs utilizam resumos de ementas ou outros sistemas para treinar seus modelos. Se esses resumos contém erros ou interpretações imprecisas, o resultado é um sistema que replica esses mesmos problemas, podendo gerar referências equivocadas. Assim, a IA baseia-se em dados parciais, que não foram passados por uma checagem final para assegurar a conformidade com a literatura jurídica atual.

 

## 3. Falhas nos Mecanismos de Validação e Verificação

### Ausência de Checagem Automática

Ferramentas como JusBrasil, Zenit, LexML e outros sistemas jurídicos brasileiros contam com protocolos de validação onde cada referência precisa ser confirmada por especialistas e associada a registros oficiais. Em contrapartida, os modelos de linguagem funcionam de forma autônoma, sem um mecanismo interno que verifique, em tempo real, se a referência citada realmente existe.

### Processos de Recuperação de Dados (RAG)

Algumas abordagens recentes tentam integrar a técnica de geração aumentada por recuperação (RAG), que combina a capacidade de geração com a consulta de bancos de dados específicos. Contudo, mesmo esses sistemas avançados não estão isentos de erros. 

 


## 4. Complexidade Jurídica, Jurisdição e Viés Algorítmico

  • ### Variações de Jurisdição

Cada tribunal pode ter interpretações específicas de uma norma, e a aplicação das leis varia conforme a região. Um modelo geral de IA não está sempre preparado para diferenciar, por exemplo, as decisões de um tribunal estadual das de um tribunal federal. Essa limitação pode fazer com que o mesmo sistema, ao buscar padrões, acabe misturando jurisprudências de diferentes sistemas, gerando citações que não são aplicáveis a um caso específico.

### Atualizações Legislativas e Conflitos Normativos

O legislador está sempre em constante mudança. Novas leis, alterações constitucionais e decisões recentes podem transformar completamente o cenário jurídico. Se uma IA foi treinada com dados de um período sem essas atualizações, ela pode referenciar decisões ou normas que hoje não têm validade. Essa defasagem implica que a IA, ao buscar coerência, preencha lacunas com referências "inventadas", sem a devida consciência da evolução legislativa.

### Viés Algorítmico

Os modelos de IA, por mais avançados que sejam, podem reproduzir vieses presentes nos dados de treinamento. No meio jurídico, esse viés pode se manifestar na reprodução de interpretações inexatas ou na enfatização de determinadas doutrinas. Em outras palavras, se os textos usados para treinar a IA contêm interpretações parciais, o modelo pode acabar reforçando visões inadequadas ao "inventar" citações que, na verdade, jamais foram publicadas por juristas reconhecidos.


## Consequências Práticas e Riscos Éticos

 ### Implicações Jurídicas e Litigiosas

O uso de informações incorretas pode levar à perda de argumentos em processos judiciais. Uma decisão baseada em precedentes inexistentes pode ser questionada por tribunais superiores, resultando em nulidades e atrasos processuais. Além disso, há o risco de incorrer em litigância de má-fé, o que pode acarretar multas e outras penalizações previstas pelo ordenamento jurídico.

  ### Riscos na Credibilidade Profissional

Para advogados e juristas, a credibilidade é um dos ativos mais valiosos. Quando uma peça jurídica contém citações que não podem ser verificadas ou que simplesmente não existem, a confiança depositada pelo cliente pode ser seriamente abalada. Casos reais, como o citado no TJSC, foram acompanhados por sanções e advertências, justamente por comprometerem a idoneidade do processo e a integridade da atuação profissional.

O uso de referências inexistentes pode resultar em perda de credibilidade perante os tribunais e colegas, além de possíveis sanções disciplinares pelos órgãos reguladores da profissão.


### Impacto na Ética Profissional

 Do ponto de vista ético, a utilização de citações falsas pode ser vista como um descuido ou até mesmo negligência na procura pela verdade dos fatos. O princípio da lealdade e da boa-fé, tão valorizado na prática jurídica, pode ser comprometido se advogados utilizam de forma abusiva informações geradas por IA sem a necessária verificação.

 ### Pressão e Aumento da Sobrecarga de Trabalho

Embora a IA seja vista como uma ferramenta para aumentar a eficiência, a necessidade de revisar e verificar manualmente as referências geradas pode, na prática, aumentar a carga de trabalho dos operadores do Direito. Em vez de diminuir o tempo investido, a utilização dessas tecnologias pode demandar um esforço adicional para checar a veracidade das informações, especialmente em casos críticos.



## 5. Estratégias para Mitigação e Boas Práticas

 

### Uso de Sistemas Híbridos

 

Uma das abordagens mais eficazes é a combinação do trabalho da IA com a supervisão humana. Essa estratégia consiste em utilizar a IA para a geração de rascunhos ou para a pesquisa preliminar e, posteriormente, submeter todo o conteúdo à revisão humana. Dessa forma, o advogado pode:

  1. - Validar cada citação e referência, consultando bases de dados oficiais dos tribunais;
  2. - Ajustar o texto de modo que reflita a realidade jurídica atual e específica da área de atuação.

Ferramentas  que já incorporam mecanismos de verificação, podem ser integradas nesse processo para reduzir a incidência de erros.

 

### Adoção de Ferramentas Especializadas

 

Optar por sistemas de IA desenvolvidos especificamente para o meio jurídico é outra medida importante. Esses sistemas treinam os modelos com dados mais restritos, atualizados e com melhor validação, o que contribui para uma maior confiabilidade das informações geradas.

### Boas Práticas na Formulação de Prompts

Ao formular solicitações para a IA, é recomendável que os usuários sejam muito específicos e detalhados. Por exemplo, incluir instruções que forcem o sistema a citar apenas fontes verificadas ou restritas a um período definido. Algumas dicas são:

  • Especificar a fonte obrigatória: Incluir no prompt "Cite apenas jurisprudências do Supremo Tribunal Federal (STF) publicadas após 2018, com link para a decisão";
  • Evitar generalizações: Quanto mais específico for o pedido, menor a chance de a IA recorrer a "preenchimentos" com informações fictícias.

 

### Treinamento Contínuo e Atualização dos Modelos

 

Os desenvolvedores de soluções de IA dedicadas ao meio jurídico devem investir continuamente em treinamento e na curadoria dos dados usados para treinar os modelos. Isso inclui:

 

  • - Atualizar os bancos de dados legais com frequência;
  • - Revisar e corrigir vieses presentes nos dados históricos;
  • - Implementar mecanismos de feedback onde os usuários podem reportar referências equivocadas, permitindo uma melhoria contínua do sistema.
  • ### Monitoramento e Auditoria Constante

 

Instituições e escritórios que utilizam IA devem implementar processos periódicos de auditoria para garantir a integridade das informações geradas. A criação de um comitê de revisão técnica e jurídica pode ajudar a:

 

  • - Identificar padrões de erro nas citações produzidas;
  • - Estabelecer diretrizes internas quanto ao uso correto da IA no preparo de documentos;
  • - Adotar medidas corretivas sempre que forem detectadas falhas no processo.


## Conclusão e Recomendações

 

Em conclusão, a "invenção" de jurisprudência e citações por parte das IAs jurídicas é um fenômeno decorrente de diversas limitações intrínsecas à tecnologia atual. Entre as principais causas estão:

 

1. Alucinações de Texto: Os modelos de linguagem geram conteúdo com base em padrões aprendidos, priorizando a fluência textual sem comprovação factual.

2. Limitações dos Dados de Treinamento: A utilização de dados desatualizados, incompletos ou enviesados contribui para a criação de referências incorretas.

3. Falta de Validação Automática: A ausência de mecanismos que verifiquem a autenticidade das fontes impede a correção de erros durante a geração do texto.

4. Complexidade do Direito: A diversidade de jurisdições, a constante evolução da legislação e a natureza subjetiva de interpretações jurídicas dificultam a precisão do conteúdo gerado.

5. Viés Algorítmico: Problemas inerentes aos dados históricos podem reproduzir interpretações erradas, afetando a confiabilidade dos resultados.

 

### Principais Recomendações para o Uso Seguro da IA no Direito

 

- Supervisão Humana Rigorosa: Sempre que possível, verificar manualmente todas as citações geradas pela IA.

- Utilização de Sistemas Especializados: Investir em ferramentas de IA especificamente desenvolvidas para o meio jurídico, que contam com dados atualizados e mecanismos de validação.

- Formulação Cuidadosa de Prompts: Especificar claramente no comando da IA quais fontes devem ser utilizadas e que as citações devem ser verificáveis.

- Treinamento Contínuo e Auditoria: Garantir que os dados de treinamento sejam revisados periodicamente e que haja uma auditoria constante sobre o uso da tecnologia.

- Integração de Mecanismos de Feedback: Desenvolver canais onde os usuários possam reportar erros, contribuindo para a melhoria contínua do sistema.

 

### Considerações Finais

 

Embora a tecnologia de IA tenha avançado consideravelmente e traga inúmeras vantagens para a redação e pesquisa jurídicas, ainda há uma série de desafios a serem superados para garantir a integridade e a confiabilidade do conteúdo gerado. É fundamental que os operadores do Direito mantenham uma postura crítica e adaptativa no uso dessas ferramentas, utilizando-as como suporte e não como substituto completo da análise humana.

A adoção    de    práticas   rigorosas    de verificação, o     investimento    em sistemas especializados e o desenvolvimento de   protocolos   internos de auditoria   representarão   os caminhos   mais seguros para aproveitar as potencialidades da IA sem comprometer a precisão das referências jurídicas.

Com os avanços contínuos na tecnologia e  a crescente   integração da IA no cotidiano jurídico, o futuro aponta para uma   colaboração cada vez mais   estreita entre  inteligência artificial e supervisão humana, onde a ética e a precisão serão pilares indispensáveis para o sucesso da prática jurídica.

Texto escrito com auxilio do conjunto de IAs integradas no  Deep Research do Sistema Sider. 

Deep Research dentro do contexto do modelo Sider refere-se a estratégias para explorar informações de maneira mais aprofundada e dinâmica. O objetivo é facilitar a identificação de conexões complexas entre dados e oferecer uma compreensão mais rica dos temas. Aqui estão algumas principais características e técnicas associadas ao Deep Research no Sider:

Exploração Aprofundada: A abordagem incentiva a análise detalhada de temas, tendências e dados, em vez de se limitar a informações superficiais.

  • Interconexões: Foca em descobrir vínculos entre diferentes conjuntos de dados e áreas do conhecimento, permitindo uma visão holística.
  • Análise Contextual: Leva em consideração o contexto histórico, cultural e social das informações, o que ajuda a gerar insights mais significativos.
  • Ferramentas Avançadas: Utiliza técnicas e ferramentas sofisticadas, como algoritmos de aprendizado de máquina e visualização de dados, para processar e interpretar informações complexas.