IA E ALUCINAÇÕES: O QUE ACONTECE QUANDO A MÁQUINA “PREENCHE LACUNAS” — E POR QUE ISSO É CRÍTICO EM PROPRIEDADE INDUSTRIAL

O “manual invisível” da IA

Quando compramos um equipamento, um software ou até um eletrodoméstico existe um hábito saudável: ler o manual, mesmo que só apressadamente. A razão é simples, queremos entender como funciona, ouso normal, quais são os limites, o que é uso indevido e o que esperar do produto.

Porém com Inteligência Artificial, isso não existe. Não há um manual na caixa, não vemos engrenagens ou circuitos, não existe uma etiqueta dizendo “atenção: este recurso é ótimo para X, mas perigoso para Y”.

O que aparece para nós é uma interface bonita, uma caixa de texto e respostas rápidas muitas vezes bem escritas, coerentes, com cara de explicação definitiva e correta.

E quando a resposta sai errada, a conclusão costuma ser direta: “essa IA é ruim”.

Só que, na maior parte das vezes o problema não é a tecnologia em si. Estamos usando IA sem enxergar o seu “manual invisível”. Não entendemos onde ela é genial e onde é ruim, utilizamos sem entender em que pontos ela é forte e em que pontos ela pode inventar com uma confiança perigosa.

Quando algo dá errado, ela “inventa” sozinha ou descreve coisas inexistentes, esse fenômeno tem nome: alucinações de IA. É quando um modelo gera uma resposta plausível, fluida e segura, mas com informações incorretas, imprecisas ou simplesmente inventadas.

No dia a dia, isso é chato, um detalhe. Em Propriedade Industrial (PI), pode ser caro.

O que são “alucinações”

Antes de tudo: alucinação não é a IA “mentindo” de propósito, nem “tendo uma visão”. É um erro bem mais prosaico: a resposta vem com forma impecável, mas com conteúdo frágil. Significa que a resposta veio com forma boa (texto bem montado), porém com conteúdo frágil (fato errado, referência inexistente, detalhe inventado).

Exemplo Real: Você pede apoio para uma busca de anterioridade e recebe algo como: “a patente US1234567B2 descreve exatamente o seu motor”. O texto parece sério. O número faz sentido em formatação. Quando você tenta abrir, descobre que o documento não existe ou é de um tema completamente diferente.

[Geralmente números sequenciais indicam alta probabilidade de ser inventado]

ia2

Essa resposta é traiçoeira porque não chega com uma placa avisando “posso estar inventando”. Pelo contrário: chega com a confiança de quem tem certeza.

E em Propriedade Industrial (PI) isso pesa, porque o custo do erro costuma ser alto. Uma alucinação pode virar:

  • Pedidos de patente com redação tecnicamente pobre;
  • Estratégias de busca baseadas em documentos inexistentes;
  • Argumento técnicos que parecem convincentes, mas são inconsistentes;
  • Pareceres que citam jurisprudências que a IA “criou” para agradar o usuário; e
  • No limite, uma decisão corporativa baseada em premissa errada.

 

O grande driver das alucinações vem de como os modelos são treinados. Modelos de linguagem (LLMs) são treinados com um volume gigantesco de texto. Eles aprendem primariamente:

  • Como as pessoas escrevem;
  • Quais termos costumam aparecer juntos;
  • Como se monta uma explicação ou um argumento; e
  • Como se estrutura um e-mail, um parecer, um resumo, um artigo.

O ponto central é: eles não foram construídos para “saber a verdade” como um banco de dados, mas são muito bons em produzir linguagem que faz sentido.

O motivo por trás disso é estatístico, pois o modelo aprende a estimar a próxima palavra mais provável dado um contexto. Em termos simples: a IA está sempre calculando a probabilidade da próxima palavra, nunca se a frase inteira será verdadeira.

Se você escreve: “A patente protege…”, ela já viu milhões de variações disso e sabe que, depois, podem aparecer coisas como “invenção”, “reivindicações”, “território”, “prazo”, “escopo” e por aí vai. Isso explica por que o texto sai fluido. Mas também explica por que, quando falta base, o modelo pode “completar” com algo que soa certo, mesmo que não seja.

Para uma pessoa experiente, dizer “não sei” é competência, maturidade. É entendido como delimitar escopo, reconhecer limite. No fim, é evitar erro, seu foco principal.

Só que a IA não funciona como um consultor sênior. O comportamento natural dela é continuar respondendo. Diferente desse consultor sênior, que ganha confiança ao admitir que precisa pesquisar, a IA é treinada dar continuidade ao texto. E há um motivo claro, o modelo foi otimizado para ser útil, em que “ser útil” muitas vezes se confunde com “dar uma resposta de qualquer jeito”.

Assim, mesmo quando a resposta deveria ser “depende, não tenho como afirmar, preciso de fonte, preciso de mais contexto” ele acaba indicando uma resposta estatisticamente provável, porém completamente errada. Se o usuário pede algo muito específico e o modelo não tem certeza, ele pode “completar” com algo plausível para manter a fluidez.

O resultado é perigoso: o texto fica ótimo, mas a base pode ser zero. O texto sai bonito. A base pode estar vazia.

Estudo de Caso: Um assistente técnico usou IA para fundamentar um parecer. A IA estruturou o texto perfeitamente, mas “alucinou” uma norma técnica que unificava dois conceitos distintos. O parecer parecia brilhante, mas cairia na primeira contestação técnica por falta de base factual.

Isso acontece com frequência em PI quando pedimos à IA itens exatos em contextos gigantes ou sem definição, como números, datas, prazos e requisitos legais; citações “certinhas” de norma, tribunal, diretriz; classificação, CPC, IPC/CPC, ou detalhes de exame; e/ou comparações de anterioridade com conclusão definitiva.

Tudo isso é terreno fértil para alucinação, pois não há limitação de contexto e informação para o IA se fixar.

Aqui entra a peça-chave: probabilidade da próxima palavra. O modelo calcula, a cada passo: “Dado o que já foi escrito, qual sequência é mais provável?”. O que “mais provável” significa? Significa “mais comum no conjunto de padrões aprendidos”, não “mais verdadeiro”.

Se o seu prompt pede uma resposta no formato de parecer, é provável que o modelo gere: introdução; fundamentação; conclusão; e tom firme.

Mesmo que ele não tenha base factual suficiente para aquela conclusão. Isso explica por que algumas alucinações são tão perigosas: elas vêm com a estética da autoridade.

Por que isso fica ainda mais crítico em Propriedade Industrial

PI é um campo em que “parece certo” não basta. Você precisa de:

  • Fato verificável (documento, publicação, número, data);
  • Critério técnico (novidade, atividade inventiva, aplicação industrial, suficiência descritiva);
  • Contexto jurídico (jurisdição, jurisprudência, prática do escritório, diretrizes locais); e
  • Estratégia (escopo vs. risco, custo vs. proteção, timing vs. publicação).

Além disso a PI é cheia de “zonas cinzentas”: muita coisa não é binária, preto ou branco. E isso confunde modelos de linguagem, porque eles tendem a buscar respostas “fechadas” e exatas. Eles gostam de soar conclusivos. E aí o risco aumenta.

Especificamente em Propriedade Industrial, o uso indiscriminado e sem verificação de IAs pode gerar problemas em todas as etapas do processo. Em termos práticos:

  • Busca de anterioridade: a IA pode sugerir documentos “perfeitos” que não existem, ou “concluir” similaridade sem ter feito a busca real.
  • Redação de Pedido: ela pode gerar uma descrição elegante, mas sem suporte técnico suficiente, ou com generalizações que enfraquecem o conjunto.
  • Redigir Reivindicações: a Inteligência Artificial pode propor textos plausíveis, mas com problemas de base, clareza, suporte, antecedente, ou termos que abrem brecha.
  • Pareceres técnicos: ela pode construir uma tese muito convincente, mas apoiar em premissas erradas (ou não verificadas).
  • Contencioso/perícias: pode sugerir padrões, testes ou referências que soam acadêmicos, mas não se sustentam.

Em resumo: IA pode ajudar muito em PI, mas não pode “decidir” PI sozinha.

Como usar IA em PI sem cair na armadilha das alucinações

A chave é entender que a IA é ótima para linguagem e estrutura, e precisa de controles quando o assunto é verdade, prova e precisão. Separar claramente onde ela brilha e onde ela precisa de freio.

Onde ela costuma entregar alto valor (com baixo risco):

  • Estruturar documentos (sumário, tópicos, checklists);
  • Melhorar clareza e redação;
  • Gerar perguntas para entrevistas com inventores;
  • Listar hipóteses técnicas a investigar; e
  • Sugerir variações de texto para comunicação interna.

 

Onde você precisa de cuidado extra (ou deve evitar):

  • Citar leis, normas, artigos, jurisprudência, diretrizes específicas;
  • Afirmar “isso é patenteável / não é patenteável” como conclusão fechada;
  • Resumir o estado da técnica sem busca real; e
  • Gerar números, datas e referências bibliográficas sem fonte.

 

Uma regra simples que funciona bem

Se a informação precisa ser auditável (alguém pode te pedir prova), trate a IA como: assistente de rascunho, não como fonte.

E aí entram bons hábitos:

  • Pedir: “se você não tiver certeza, diga que não tem certeza”;
  • Exigir: fontes e links verificáveis (e realmente conferir); e
  • Preferir prompts com: contexto técnico, objetivo, escopo e restrições.

Em resumo, usar IA para gerar caminhos, e não vereditos.

O “manual” que ninguém lê: entender limites para aplicar bem em partes específicas de PI

O maior erro não é usar IA. É usar IA sem entender onde ela agrega.

Em Propriedade Industrial, as tarefas têm naturezas diferentes: algumas são linguísticas e estruturais (IA brilha); outras são probatórias e factuais (IA exige verificação rigorosa); e outras são técnico-estratégicas (IA pode apoiar, mas não substituir julgamento).

Quando você entende isso, a IA deixa de ser “um gerador de texto” e vira uma ferramenta para: acelerar etapas iniciais; reduzir tempo de formatação e organização; melhorar qualidade de comunicação; e aumentar consistência de processos internos.

Mas sempre com uma premissa: a responsabilidade final é humana. Somente assim conseguimos desenhar caminhos seguros para um uso verdadeiramente apurado da inteligência artificial, especialmente onde a precisão não admite erros.

Alucinações em IA não são “um bug estranho”. São um efeito natural de sistemas que otimizam fluência e probabilidade de próxima palavra, não “verdade”.

Em áreas como Propriedade Industrial, isso importa muito porque PI exige precisão, prova, contexto e estratégia. E justamente por isso, quando usada com método, a IA pode ser uma vantagem competitiva real: mais velocidade com mais controle.

Próximos passos

Quero abrir a conversa: você já viu IA alucinar em contexto técnico, jurídico ou de PI? Onde isso apareceu: em busca, redação, parecer, ou discussão com inventores?

Se você já usa IA no seu trabalho, me conta: qual parte do seu fluxo em PI você quer melhorar primeiro? Para guiar, algumas possibilidades:

  • Como reduzir alucinações em busca de anterioridade?
  • Como usar IA para entrevistar inventores e captar detalhes técnicos melhores?
  • Como criar um “checklist de verificação” para textos gerados por IA?
  • Quando faz sentido usar personas (“aja como…”) e quando isso atrapalha?
  • Como montar prompts que forçam a IA a declarar incerteza?

Se você comentar uma dessas dúvidas, eu posso te ajudar transformar em um próximo artigo/post, com exemplos práticos.

EXEMPLOS DE PROMPTS PARA MELHORAR SEU USO DE IA EM PI

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *