Muitos profissionais do Direito relatam que, ao utilizar essas ferramentas, as referências a decisões judiciais e doutrinas que são fornecidas não correspondem à realidade. Este relatório busca explicar, em detalhes e de forma acessível, por que as IAs frequentemente "inventam" ou alucinam conteúdo jurídico.
## Principais Pontos
- Fenômeno das Alucinações
- Limitações dos dados de treinamento
- Falhas de validação
- Complexidade jurídica
- Estratégias de Mitigação
## 1. O Fenômeno das "Alucinações" em IAs
Jurídicas
### O Que São Alucinações?
No contexto da IA, alucinação refere-se à capacidade dos modelos em produzir conteúdo que, embora coerente e fluido, não possui embasamento factual. Esse comportamento decorre da forma como esses modelos são treinados. Eles processam enormes volumes de texto para aprender padrões e relações linguísticas, mas o objetivo principal não é garantir a veracidade dos dados, e sim produzir respostas que soem "naturais" e completas. Assim, na ausência de uma checagem de autenticidade, o modelo pode criar jurisprudências, citações e até nomes de juristas que não correspondem à realidade.
### Exemplos no Setor Jurídico
Um exemplo bastante citado – e
que tem sido notícia em diversas instituições – é o caso registrado pelo
Tribunal de Justiça de Santa Catarina (TJSC). Numa situação em que o advogado
utilizou o ChatGPT para redigir um recurso, o sistema incluiu citações e
referências a doutrinas inexistentes. Essa prática levou à aplicação de multa
por litigância de má-fé, evidenciando os riscos de utilizar informações sem a
devida verificação.
Em casos como este, a confiança excessiva na IA sem verificação posterior resultou em consequências graves para o profissional, incluindo sanções disciplinares e danos à reputação. In https://www.tjsc.jus.br/web/imprensa/-/tjsc-multa-autor-de-recurso-por-jurisprudencia-falsa-gerada-por-ia .
**Fluxo de alucinação**
- Entrada de Prompt
- Processamento pelo Modelo
- Geração de Texto
- Citações Fictícias
- Ausência de Validação
## 2. Limitações dos Dados de Treinamento e Seus Impactos
### Dados Incompletos e Desatualizados
Os sistemas de IA dependem
inteiramente dos dados com os quais foram treinados. Se esses dados estiverem
desatualizados ou forem incompletos, a IA pode acabar utilizando informações
que não correspondem à realidade atual do Direito. Por exemplo, se um modelo
for treinado com decisões judiciais coletadas há muitos anos, ele pode citar
jurisprudência que já foi superada ou mesmo elaborar referências que nunca
foram registradas posteriormente.
### Viés nos Dados Históricos
Além de lacunas temporais, é importante considerar que os dados históricos podem conter vieses. Decisões judiciais e doutrinas produzidas há décadas podem refletir entendimentos ultrapassados ou até mesmo distorções. Quando o modelo absorve esses vieses sem um filtro para corrigi-los, há um risco aumentado de gerar citações inadequadas ou referenciar casos que não possuem a validade atual.
### Falta de Contexto Adequado
A IA não possui uma compreensão "real" ou contextual do Direito. Ela identifica padrões linguísticos sem compreender o conteúdo do ponto de vista jurídico. Essa limitação é agravada pela complexidade inerente às normas jurídicas, que muitas vezes envolvem interpretações subjetivas e variações de aplicação conforme a jurisdição e o período histórico.
### Exemplo Prático: O Caso de Treinamento com Bases Jurídicas
O caso entre plataformas de pesquisa jurídica é ilustrativo. Algumas IAs utilizam resumos de ementas ou outros sistemas para treinar seus modelos. Se esses resumos contém erros ou interpretações imprecisas, o resultado é um sistema que replica esses mesmos problemas, podendo gerar referências equivocadas. Assim, a IA baseia-se em dados parciais, que não foram passados por uma checagem final para assegurar a conformidade com a literatura jurídica atual.
## 3. Falhas nos Mecanismos de Validação e Verificação
### Ausência de Checagem Automática
Ferramentas como JusBrasil, Zenit, LexML e outros sistemas jurídicos brasileiros contam com protocolos de validação onde cada referência precisa ser confirmada por especialistas e associada a registros oficiais. Em contrapartida, os modelos de linguagem funcionam de forma autônoma, sem um mecanismo interno que verifique, em tempo real, se a referência citada realmente existe.
### Processos de Recuperação de Dados (RAG)
Algumas abordagens recentes tentam integrar a técnica de geração aumentada por recuperação (RAG), que combina a capacidade de geração com a consulta de bancos de dados específicos. Contudo, mesmo esses sistemas avançados não estão isentos de erros.
## 4. Complexidade Jurídica, Jurisdição e Viés Algorítmico
- ### Variações de Jurisdição
Cada tribunal pode ter interpretações específicas de uma norma, e a aplicação das leis varia conforme a região. Um modelo geral de IA não está sempre preparado para diferenciar, por exemplo, as decisões de um tribunal estadual das de um tribunal federal. Essa limitação pode fazer com que o mesmo sistema, ao buscar padrões, acabe misturando jurisprudências de diferentes sistemas, gerando citações que não são aplicáveis a um caso específico.
### Atualizações Legislativas e Conflitos Normativos
O legislador está sempre em constante mudança. Novas leis, alterações constitucionais e decisões recentes podem transformar completamente o cenário jurídico. Se uma IA foi treinada com dados de um período sem essas atualizações, ela pode referenciar decisões ou normas que hoje não têm validade. Essa defasagem implica que a IA, ao buscar coerência, preencha lacunas com referências "inventadas", sem a devida consciência da evolução legislativa.
### Viés Algorítmico
Os modelos de IA, por mais avançados que sejam, podem reproduzir vieses presentes nos dados de treinamento. No meio jurídico, esse viés pode se manifestar na reprodução de interpretações inexatas ou na enfatização de determinadas doutrinas. Em outras palavras, se os textos usados para treinar a IA contêm interpretações parciais, o modelo pode acabar reforçando visões inadequadas ao "inventar" citações que, na verdade, jamais foram publicadas por juristas reconhecidos.
## Consequências Práticas e Riscos Éticos
O uso de informações incorretas
pode levar à perda de argumentos em processos judiciais. Uma decisão baseada em
precedentes inexistentes pode ser questionada por tribunais superiores,
resultando em nulidades e atrasos processuais. Além disso, há o risco de
incorrer em litigância de má-fé, o que pode acarretar multas e outras
penalizações previstas pelo ordenamento jurídico.
Para advogados e juristas, a
credibilidade é um dos ativos mais valiosos. Quando uma peça jurídica contém
citações que não podem ser verificadas ou que simplesmente não existem, a
confiança depositada pelo cliente pode ser seriamente abalada. Casos reais,
como o citado no TJSC, foram acompanhados por sanções e advertências,
justamente por comprometerem a idoneidade do processo e a integridade da
atuação profissional.
O uso de referências inexistentes
pode resultar em perda de credibilidade perante os tribunais e colegas, além de
possíveis sanções disciplinares pelos órgãos reguladores da profissão.
### Impacto na Ética Profissional
Embora a IA seja vista como uma
ferramenta para aumentar a eficiência, a necessidade de revisar e verificar
manualmente as referências geradas pode, na prática, aumentar a carga de
trabalho dos operadores do Direito. Em vez de diminuir o tempo investido, a
utilização dessas tecnologias pode demandar um esforço adicional para checar a
veracidade das informações, especialmente em casos críticos.
## 5. Estratégias para Mitigação e Boas Práticas
### Uso de Sistemas Híbridos
Uma das abordagens mais eficazes é a combinação do trabalho
da IA com a supervisão humana. Essa estratégia consiste em utilizar a IA para a
geração de rascunhos ou para a pesquisa preliminar e, posteriormente, submeter
todo o conteúdo à revisão humana. Dessa forma, o advogado pode:
- - Validar cada citação e referência, consultando bases de dados oficiais dos tribunais;
- - Ajustar o texto de modo que reflita a realidade jurídica atual e específica da área de atuação.
Ferramentas que já incorporam mecanismos de verificação, podem ser integradas nesse processo para reduzir a incidência de erros.
### Adoção de Ferramentas Especializadas
Optar por sistemas de IA desenvolvidos especificamente para
o meio jurídico é outra medida importante. Esses sistemas treinam os modelos
com dados mais restritos, atualizados e com melhor validação, o que contribui
para uma maior confiabilidade das informações geradas.
### Boas Práticas na Formulação de Prompts
Ao formular solicitações para a IA, é recomendável que os usuários sejam muito específicos e detalhados. Por exemplo, incluir instruções que forcem o sistema a citar apenas fontes verificadas ou restritas a um período definido. Algumas dicas são:
- Especificar a fonte obrigatória: Incluir no prompt "Cite apenas jurisprudências do Supremo Tribunal Federal (STF) publicadas após 2018, com link para a decisão";
- Evitar generalizações: Quanto mais específico for o pedido, menor a chance de a IA recorrer a "preenchimentos" com informações fictícias.
### Treinamento Contínuo e Atualização dos Modelos
Os desenvolvedores de soluções de IA dedicadas ao meio
jurídico devem investir continuamente em treinamento e na curadoria dos dados
usados para treinar os modelos. Isso inclui:
- - Atualizar os bancos de dados legais com frequência;
- - Revisar e corrigir vieses presentes nos dados históricos;
- - Implementar mecanismos de feedback onde os usuários podem reportar referências equivocadas, permitindo uma melhoria contínua do sistema.
- ### Monitoramento e Auditoria Constante
Instituições e escritórios que utilizam IA devem implementar
processos periódicos de auditoria para garantir a integridade das informações
geradas. A criação de um comitê de revisão técnica e jurídica pode ajudar a:
- - Identificar padrões de erro nas citações produzidas;
- - Estabelecer diretrizes internas quanto ao uso correto da IA no preparo de documentos;
- - Adotar medidas corretivas sempre que forem detectadas falhas no processo.
## Conclusão e Recomendações
Em conclusão, a "invenção" de jurisprudência e
citações por parte das IAs jurídicas é um fenômeno decorrente de diversas
limitações intrínsecas à tecnologia atual. Entre as principais causas estão:
1. Alucinações de Texto: Os modelos de linguagem geram
conteúdo com base em padrões aprendidos, priorizando a fluência textual sem
comprovação factual.
2. Limitações dos Dados de Treinamento: A utilização de
dados desatualizados, incompletos ou enviesados contribui para a criação de
referências incorretas.
3. Falta de Validação Automática: A ausência de mecanismos
que verifiquem a autenticidade das fontes impede a correção de erros durante a
geração do texto.
4. Complexidade do Direito: A diversidade de jurisdições, a
constante evolução da legislação e a natureza subjetiva de interpretações
jurídicas dificultam a precisão do conteúdo gerado.
5. Viés Algorítmico: Problemas inerentes aos dados
históricos podem reproduzir interpretações erradas, afetando a confiabilidade
dos resultados.
### Principais Recomendações para o Uso Seguro da IA no
Direito
- Supervisão Humana Rigorosa: Sempre que possível, verificar
manualmente todas as citações geradas pela IA.
- Utilização de Sistemas Especializados: Investir em
ferramentas de IA especificamente desenvolvidas para o meio jurídico, que
contam com dados atualizados e mecanismos de validação.
- Formulação Cuidadosa de Prompts: Especificar claramente no
comando da IA quais fontes devem ser utilizadas e que as citações devem ser
verificáveis.
- Treinamento Contínuo e Auditoria: Garantir que os dados de
treinamento sejam revisados periodicamente e que haja uma auditoria constante
sobre o uso da tecnologia.
- Integração de Mecanismos de Feedback: Desenvolver canais
onde os usuários possam reportar erros, contribuindo para a melhoria contínua
do sistema.
### Considerações Finais
Embora a tecnologia de IA tenha avançado consideravelmente e
traga inúmeras vantagens para a redação e pesquisa jurídicas, ainda há uma
série de desafios a serem superados para garantir a integridade e a
confiabilidade do conteúdo gerado. É fundamental que os operadores do Direito
mantenham uma postura crítica e adaptativa no uso dessas ferramentas,
utilizando-as como suporte e não como substituto completo da análise humana.
A adoção de práticas rigorosas de verificação, o investimento em sistemas especializados e o desenvolvimento de protocolos internos de auditoria representarão os caminhos mais seguros para aproveitar as potencialidades da IA sem comprometer a precisão das referências jurídicas.
Com os avanços contínuos na tecnologia e a crescente integração da IA no cotidiano jurídico, o futuro aponta para uma colaboração cada vez mais estreita entre inteligência artificial e supervisão humana, onde a ética e a precisão serão pilares indispensáveis para o sucesso da prática jurídica.
Texto escrito com auxilio do conjunto de IAs integradas no Deep Research do Sistema Sider.
O Deep Research dentro do contexto do modelo Sider refere-se a estratégias para explorar informações de maneira mais aprofundada e dinâmica. O objetivo é facilitar a identificação de conexões complexas entre dados e oferecer uma compreensão mais rica dos temas. Aqui estão algumas principais características e técnicas associadas ao Deep Research no Sider:
Exploração Aprofundada: A abordagem incentiva a análise detalhada de temas, tendências e dados, em vez de se limitar a informações superficiais.
- Interconexões: Foca em descobrir vínculos entre diferentes conjuntos de dados e áreas do conhecimento, permitindo uma visão holística.
- Análise Contextual: Leva em consideração o contexto histórico, cultural e social das informações, o que ajuda a gerar insights mais significativos.
- Ferramentas Avançadas: Utiliza técnicas e ferramentas sofisticadas, como algoritmos de aprendizado de máquina e visualização de dados, para processar e interpretar informações complexas.