CAZOS

Quando a IA "Inventa": Alucinações Algorítmicas e a Nova Fronteira da Responsabilidade Jurídica

7 min de leitura
795 visualizações
Quando a IA "Inventa": Alucinações Algorítmicas e a Nova Fronteira da Responsabilidade Jurídica

Este artigo analisa como e por que a IA pode gerar informações falsas com aparência de verdade — o fenómeno das alucinações algorítmicas — e explica o impacto direto disso na advocacia, auditoria, banca e administração pública. Apresenta ainda um framework de governança para implementação segura de IA em Angola e na CPLP.

Quando a IA «Inventa»: Alucinações Algorítmicas e a Nova Fronteira da Responsabilidade Jurídica

I. Introdução: A IA não «pensa» — apenas «prediz»

Os actuais modelos de linguagem de grande escala, tais como GPT, Claude ou Gemini, não compreendem a realidade do modo como um ser humano a apreende. Não interpretam factos, não ponderam valores, nem avaliam sentido jurídico ou moral. O que fazem é calcular probabilidades linguísticas. Dito de outro modo: quando produzem uma resposta, procuram a sequência de palavras que, estatisticamente, mais se aproxima daquilo que, segundo os seus dados de treino, seria plausivelmente dito.

Quando uma IA «alucina», não está a mentir. Está a preencher lacunas com base nos padrões que reconhece. Produz texto que se parece com verdade, mas não é necessariamente verdadeiro. E isso não constitui um erro superficial: representa uma característica estrutural da arquitectura destes modelos.

Investigação publicada pela OpenAI (Kalai et al., 2025) demonstra que os modelos são treinados em sistemas de recompensa que valorizam a resposta formulada, mesmo quando incerta, em vez de privilegiar a expressão de dúvida ou a suspensão do juízo. É o que se designa por viés de incentivo: os modelos são, literalmente, ensinados a «arriscar» respostas.

A Harvard Kennedy School (2025) confirma que, mesmo no mais elevado patamar técnico actualmente disponível, a taxa de alucinação nunca atinge zero. Assim, a IA pode acertar na forma, e ainda assim falhar completamente no conteúdo.

II. A Dimensão do Problema

As taxas de alucinação variam amplamente consoante o contexto:

Categoria de ModeloTaxa Média de AlucinaçãoContexto
Modelos de topo0,7%–0,9%Respostas factuais simples
Modelos empresariais2%–5%Apoio à decisão organizacional
Média global9,2%Conhecimento geral
Domínios técnicos (Direito, Medicina, Finanças)5%–48%Questões especializadas

Além disso, fenómenos recentes agravaram o quadro. Estudos (Techopedia, 2025) indicam que os modelos optimizados para raciocínio — teoricamente mais avançados — tendem a aumentar a taxa de erro factual quando confrontados com pessoas, datas, jurisprudência ou enquadramento histórico. Ou seja, quanto mais «inteligente» o modelo parece, mais perigoso se torna confiar nele sem verificação.

III. O Direito: Onde o Risco se Torna Responsabilidade

Entre 2023 e 2025, foram detectados centenas de casos em que peças processuais apresentadas em tribunal continham:

  • Jurisprudência inexistente,
  • Processos fictícios,
  • Citações doutrinárias inventadas,
  • Artigos de lei que simplesmente não existem.

Um Caso que se tornou marco — Mata v. Avianca Airlines (EUA, 2023)

Em 2023, no Tribunal Distrital Federal em Nova Iorque, um advogado recorreu a um modelo de linguagem para apoiar um requerimento. O documento incluía acórdãos, números de processo e passagens jurisprudenciais que nunca existiram. O advogado não agiu com má-fé; limitou-se a confiar no texto gerado.

O juiz verificou que nenhuma das citações era verdadeira. E o tribunal declarou, com clareza invulgar:

A responsabilidade pela verificação da informação é pessoal e intransmissível. A IA não transfere deveres profissionais.

Aplicou multa, notificou a Ordem dos Advogados e determinou formação obrigatória. Não se puniu a tecnologia; puniu-se a renúncia ao dever de verificação.

O efeito cascata no Reino Unido (2024–2025)

No High Court of Justice, em Londres, descobriram-se peças em litígio de cerca de £89 milhões com 18 de 45 citações totalmente fabricadas. A advertência pública foi incisiva: o advogado não é um reprodutor de texto; é garante da autenticidade da palavra jurídica.

Casos recentes no Brasil (2024–2025)

Tribunais estaduais identificaram peças com jurisprudência imaginária, resultando em:

  • Arquivamentos,
  • Multas,
  • Advertências disciplinares,
  • Comunicações directas à Ordem dos Advogados.

Em todas estas jurisdições, a regra converge: A IA pode auxiliar. Mas a verificação é sempre humana. E é sempre obrigatória.

IV. Por que a IA alucina: a inevitabilidade estatística

Investigação (Xu et al., arXiv, 2024/2025) demonstra matematicamente que:

É impossível eliminar completamente as alucinações.

As causas estruturais são claras:

  1. Viés de Incentivo — o modelo é treinado para dar resposta, mesmo quando não sabe.
  2. Compressão de Informação — ao condensar enormes corpora, perde fidelidade factual.
  3. Ausência de Consulta a fontes primárias — o modelo não verifica o que afirma.

A metáfora mais elucidativa, utilizada pela OpenAI, é simples:

A IA comporta-se como um aluno numa prova de escolha múltipla. Não responder garante zero. Responder ao acaso pode garantir pontos. Logo, responde sempre.

V. Responsabilidade Jurídica

ConsequênciaQuem respondeObservação
Responsabilidade civilAdvogados, consultores, auditoresA IA não substitui a diligência profissional
Sanções disciplinaresProfissionais forensesAdvertência, suspensão ou formação obrigatória
Multas judiciaisQuando a peça induz o tribunal em erroAgravadas se houver prejuízo processual
Dano reputacionalEscritórios, bancos, empresas públicasDifícil recuperação; impacto prolongado

Não existe, em qualquer ordenamento relevante, o argumento «foi a IA que escreveu».

VI. Angola e a CPLP: Vulnerabilidades e Oportunidades

Angola e os países da CPLP encontram-se numa posição particular. Ainda há tempo para legislar antes da massificação, o que permite evitar erros cometidos noutras jurisdições. Ao mesmo tempo, existe dependência de modelos treinados maioritariamente em contextos não lusófonos, o que acentua desalinhamentos conceptuais, especialmente no Direito.

A oportunidade está em assumir liderança regional na governação da IA, integrando-a em políticas públicas, advocacia, banca, auditoria e administração.

VII. Framework de Governação: Cinco Pilares

  1. Mapeamento de Risco — identificar processos onde a IA é usada.
  2. Políticas Internas Claras — definir limites de utilização.
  3. Verificação Obrigatória de Fontes — nenhum texto de IA entra no processo sem validação.
  4. Formação Contínua de Profissionais — literacia algorítmica como competência essencial.
  5. Documentação e Auditoria — registo e rastreabilidade de uso.

VIII. Conclusão: Governar para liderar

A questão não é se a IA será utilizada. A questão é como e por quem será governada.

Organizações que integrarem processos formais de validação e responsabilidade, em vez de mera adopção espontânea, diferenciam-se pela confiança que oferecem. Em mercados jurídicos, financeiros e públicos, a confiança é capital estratégico.

Inovar sem governação é exposição ao risco. Inovar com governação é liderança.

Publicidade
Carregando anúncio...
795
0

Carregando comentários...

Publicidade
Carregando anúncio...

Ficha Técnica do Artigo

Categoria
Academia Cazos
DOI
10.56236/cazos.2025.16pending
Idioma
Português
Publicado em
9 de novembro de 2025
Tempo de Leitura
6 mins
Visualizações
795(146 únicas)
Palavras-chave
alucinações algorítmicashallucinations AIresponsabilidade jurídica IAresponsabilidade civil inteligência artificialrisco IA direitoverificação de fontes IAgovernança de IA Angolaética da IA CPLP
Estado
Publicado

Acesso Aberto

Este artigo está disponível gratuitamente