Quando a IA «Inventa»: Alucinações Algorítmicas e a Nova Fronteira da Responsabilidade Jurídica
I. Introdução: A IA não «pensa» — apenas «prediz»
Os actuais modelos de linguagem de grande escala, tais como GPT, Claude ou Gemini, não compreendem a realidade do modo como um ser humano a apreende. Não interpretam factos, não ponderam valores, nem avaliam sentido jurídico ou moral. O que fazem é calcular probabilidades linguísticas. Dito de outro modo: quando produzem uma resposta, procuram a sequência de palavras que, estatisticamente, mais se aproxima daquilo que, segundo os seus dados de treino, seria plausivelmente dito.
Quando uma IA «alucina», não está a mentir. Está a preencher lacunas com base nos padrões que reconhece. Produz texto que se parece com verdade, mas não é necessariamente verdadeiro. E isso não constitui um erro superficial: representa uma característica estrutural da arquitectura destes modelos.
Investigação publicada pela OpenAI (Kalai et al., 2025) demonstra que os modelos são treinados em sistemas de recompensa que valorizam a resposta formulada, mesmo quando incerta, em vez de privilegiar a expressão de dúvida ou a suspensão do juízo. É o que se designa por viés de incentivo: os modelos são, literalmente, ensinados a «arriscar» respostas.
A Harvard Kennedy School (2025) confirma que, mesmo no mais elevado patamar técnico actualmente disponível, a taxa de alucinação nunca atinge zero. Assim, a IA pode acertar na forma, e ainda assim falhar completamente no conteúdo.
II. A Dimensão do Problema
As taxas de alucinação variam amplamente consoante o contexto:
| Categoria de Modelo | Taxa Média de Alucinação | Contexto |
|---|---|---|
| Modelos de topo | 0,7%–0,9% | Respostas factuais simples |
| Modelos empresariais | 2%–5% | Apoio à decisão organizacional |
| Média global | 9,2% | Conhecimento geral |
| Domínios técnicos (Direito, Medicina, Finanças) | 5%–48% | Questões especializadas |
Além disso, fenómenos recentes agravaram o quadro. Estudos (Techopedia, 2025) indicam que os modelos optimizados para raciocínio — teoricamente mais avançados — tendem a aumentar a taxa de erro factual quando confrontados com pessoas, datas, jurisprudência ou enquadramento histórico. Ou seja, quanto mais «inteligente» o modelo parece, mais perigoso se torna confiar nele sem verificação.
III. O Direito: Onde o Risco se Torna Responsabilidade
Entre 2023 e 2025, foram detectados centenas de casos em que peças processuais apresentadas em tribunal continham:
- Jurisprudência inexistente,
- Processos fictícios,
- Citações doutrinárias inventadas,
- Artigos de lei que simplesmente não existem.
Um Caso que se tornou marco — Mata v. Avianca Airlines (EUA, 2023)
Em 2023, no Tribunal Distrital Federal em Nova Iorque, um advogado recorreu a um modelo de linguagem para apoiar um requerimento. O documento incluía acórdãos, números de processo e passagens jurisprudenciais que nunca existiram. O advogado não agiu com má-fé; limitou-se a confiar no texto gerado.
O juiz verificou que nenhuma das citações era verdadeira. E o tribunal declarou, com clareza invulgar:
A responsabilidade pela verificação da informação é pessoal e intransmissível. A IA não transfere deveres profissionais.
Aplicou multa, notificou a Ordem dos Advogados e determinou formação obrigatória. Não se puniu a tecnologia; puniu-se a renúncia ao dever de verificação.
O efeito cascata no Reino Unido (2024–2025)
No High Court of Justice, em Londres, descobriram-se peças em litígio de cerca de £89 milhões com 18 de 45 citações totalmente fabricadas. A advertência pública foi incisiva: o advogado não é um reprodutor de texto; é garante da autenticidade da palavra jurídica.
Casos recentes no Brasil (2024–2025)
Tribunais estaduais identificaram peças com jurisprudência imaginária, resultando em:
- Arquivamentos,
- Multas,
- Advertências disciplinares,
- Comunicações directas à Ordem dos Advogados.
Em todas estas jurisdições, a regra converge: A IA pode auxiliar. Mas a verificação é sempre humana. E é sempre obrigatória.
IV. Por que a IA alucina: a inevitabilidade estatística
Investigação (Xu et al., arXiv, 2024/2025) demonstra matematicamente que:
É impossível eliminar completamente as alucinações.
As causas estruturais são claras:
- Viés de Incentivo — o modelo é treinado para dar resposta, mesmo quando não sabe.
- Compressão de Informação — ao condensar enormes corpora, perde fidelidade factual.
- Ausência de Consulta a fontes primárias — o modelo não verifica o que afirma.
A metáfora mais elucidativa, utilizada pela OpenAI, é simples:
A IA comporta-se como um aluno numa prova de escolha múltipla. Não responder garante zero. Responder ao acaso pode garantir pontos. Logo, responde sempre.
V. Responsabilidade Jurídica
| Consequência | Quem responde | Observação |
|---|---|---|
| Responsabilidade civil | Advogados, consultores, auditores | A IA não substitui a diligência profissional |
| Sanções disciplinares | Profissionais forenses | Advertência, suspensão ou formação obrigatória |
| Multas judiciais | Quando a peça induz o tribunal em erro | Agravadas se houver prejuízo processual |
| Dano reputacional | Escritórios, bancos, empresas públicas | Difícil recuperação; impacto prolongado |
Não existe, em qualquer ordenamento relevante, o argumento «foi a IA que escreveu».
VI. Angola e a CPLP: Vulnerabilidades e Oportunidades
Angola e os países da CPLP encontram-se numa posição particular. Ainda há tempo para legislar antes da massificação, o que permite evitar erros cometidos noutras jurisdições. Ao mesmo tempo, existe dependência de modelos treinados maioritariamente em contextos não lusófonos, o que acentua desalinhamentos conceptuais, especialmente no Direito.
A oportunidade está em assumir liderança regional na governação da IA, integrando-a em políticas públicas, advocacia, banca, auditoria e administração.
VII. Framework de Governação: Cinco Pilares
- Mapeamento de Risco — identificar processos onde a IA é usada.
- Políticas Internas Claras — definir limites de utilização.
- Verificação Obrigatória de Fontes — nenhum texto de IA entra no processo sem validação.
- Formação Contínua de Profissionais — literacia algorítmica como competência essencial.
- Documentação e Auditoria — registo e rastreabilidade de uso.
VIII. Conclusão: Governar para liderar
A questão não é se a IA será utilizada. A questão é como e por quem será governada.
Organizações que integrarem processos formais de validação e responsabilidade, em vez de mera adopção espontânea, diferenciam-se pela confiança que oferecem. Em mercados jurídicos, financeiros e públicos, a confiança é capital estratégico.
Inovar sem governação é exposição ao risco. Inovar com governação é liderança.

Carregando comentários...