Como fazer contratos com IA? Limitar danos por “alucinações” ou vieses em contratos


Escrito por Matheus Figueiredo, advogado especialista em empresas de tecnologia, fintechs e starups nda NDM Advogados.
Desde 2014 oferecemos assessoria jurídica completa para empresas tech crescerem com segurança e poderem focar no que importa.
Atualizado em 01/04/2026
Fazer documentos e contratos com IA já é realidade em empresas de todos os portes. Ferramentas como ChatGPT, Copilot, Gemini e Claude são usadas diariamente para gerar minutas, revisar cláusulas, traduzir termos e até sugerir alterações em documentos jurídicos.
O problema é que a IA não é um advogado. Ela não interpreta contexto negocial, não conhece as particularidades do seu negócio e, principalmente, pode inventar informações com total confiança, o fenômeno conhecido como “alucinação”. Além disso, pode reproduzir padrões discriminatórios aprendidos dos seus dados de treinamento (os chamados “vieses”).
Neste artigo, vamos explicar esses riscos de forma prática e mostrar como a sua empresa pode usar IA na elaboração de contratos sem comprometer a segurança jurídica do negócio.
Antes de começarmos, precisamos alinhar alguns conceitos importantes:
Alucinação: Quando a IA inventa fatos, leis ou artigos com total convicção. Ela prioriza a coerência do texto sobre a verdade jurídica.
Viés Algorítmico: Reprodução de padrões abusivos ou discriminatórios presentes nos dados de treinamento da máquina.
Prompt Engineering (Jurídico): A arte de fornecer o contexto correto para que a IA gere rascunhos menos genéricos e mais úteis.
Alucinação de IA é quando o modelo gera informações factualmente incorretas, mas com aparência perfeitamente convincente. No contexto de contratos, isso pode significar uma cláusula que cita uma lei que não existe, uma referência a um artigo do Código Civil com numeração errada, ou uma regra de rescisão que simplesmente não corresponde ao que a legislação brasileira prevê.
Já o viés algorítmico é quando o modelo reproduz padrões discriminatórios presentes nos dados com os quais foi treinado. Em contratos, isso pode se manifestar de formas mais sutis: cláusulas que favorecem sistematicamente uma das partes, termos que replicam práticas de mercado abusivas sem questioná-las, ou linguagem que não reflete a realidade da relação entre as partes.
O risco concreto: um contrato gerado por IA pode parecer tecnicamente perfeito e, ainda assim, conter erros que só serão percebidos quando já houver prejuízo (uma cláusula nula, uma obrigação ilegal, uma proteção que na verdade não protege nada).
Vamos ao que interessa: quais são os riscos práticos que a sua empresa corre ao usar IA para elaborar ou revisar contratos?
A IA pode gerar cláusulas que violam normas de ordem pública, como limitar direitos do consumidor de forma vedada pelo CDC, ou incluir hipóteses de rescisão contrárias à legislação trabalhista. O modelo não “sabe” que aquela cláusula é nula; ele apenas reproduz padrões estatísticos ou insere o que é “melhor” para você.
Este é um dos problemas mais comuns. Modelos de linguagem frequentemente “inventam” referências legislativas, citam artigos que não existem, leis revogadas como se vigentes, ou misturam dispositivos de normas diferentes. Se o contrato for assinado com essas referências, a cláusula pode perder sua função protetiva ou, pior, gerar uma obrigação diferente da pretendida.
A IA gera contratos genéricos. Ela não sabe que a sua empresa tem um modelo de negócio específico, que opera em um setor regulado, que tem restrições contratuais com investidores, ou que a outra parte já descumpriu obrigações semelhantes no passado. Contratos bons são feitos sob medida, e a IA, por enquanto, entrega pronto-a-vestir.

Os modelos aprendem com grandes volumes de dados da internet, o que inclui muitos contratos mal redigidos, com cláusulas abusivas, desatualizados ou inadequados. A IA pode reproduzir essas cláusulas sem qualquer ressalva, e o empresário, sem perceber, pode adotar práticas que o expõem a riscos regulatórios e judiciais.
Enviar para um parceiro, fornecedor ou cliente um contrato com erros evidentes ou cláusulas desproporcionais pode transmitir uma imagem de amadorismo e descuido, exatamente o oposto do que um bom contrato deveria comunicar.
A ideia aqui não é demonizar a IA, ela é uma ferramenta poderosa quando bem utilizada. O ponto é saber usá-la dentro dos seus limites. Veja algumas dicas:
A IA pode ser um excelente ponto de partida, um rascunho, uma base para discussão, mas nunca o produto final. Todo contrato gerado ou revisado por IA deve passar pela análise de um profissional que entenda o contexto do negócio, a legislação aplicável e as particularidades da relação entre as partes.
E o apoio jurídico não precisa se limitar à revisão do documento pronto. Um advogado especializado pode agregar valor desde antes de a IA gerar o primeiro rascunho: ajudando na construção do prompt certo, orientando sobre quais pontos o contrato precisa endereçar, indicando riscos específicos do seu setor e opinando sobre a estratégia contratual mais adequada. Quanto mais cedo esse profissional entra no processo, melhor tende a ser o resultado.
Se a IA citou um artigo de lei, uma súmula, um regulamento: confira na fonte. Não confie 100% na citação do modelo. Verifique se a norma existe, se está vigente e se o conteúdo citado corresponde ao que está no texto legal. Esse passo simples evita boa parte dos problemas causados por alucinações.
Quanto mais contexto você fornecer, menor o risco de a IA gerar algo genérico ou inadequado. Informe o tipo de relação (prestação de serviços, licenciamento, SaaS, etc.), as partes envolvidas, o setor de atuação e os pontos que você considera críticos. Isso não elimina a necessidade de revisão, mas melhora substancialmente a qualidade do rascunho.
Cuidado ao colar informações confidenciais do negócio, dados pessoais de clientes ou detalhes estratégicos em ferramentas de IA, especialmente nas versões gratuitas. Muitas dessas ferramentas podem utilizar os dados inseridos para treinamento do modelo. Além do risco comercial, há risco de violação da LGPD.
A IA é ótima para gerar primeiros rascunhos, sugerir estruturas de cláusulas, identificar pontos que podem estar faltando, traduzir termos técnicos e organizar informações. Use-a para acelerar o processo, não para substituir o julgamento humano.

Essa é a pergunta que mais ouvimos. Se um contrato gerado por IA causar prejuízo, em razão de uma cláusula nula, uma obrigação não prevista, uma proteção que falhou, de quem é a responsabilidade?
A resposta curta: da empresa que assinou o contrato. Perante a outra parte e perante o Judiciário, quem responde pelo conteúdo do contrato é quem o firmou, não a ferramenta utilizada para redigi-lo. Dizer que “a IA escreveu” não é excludente de responsabilidade.
Isso se aplica tanto nas relações entre empresas (B2B) quanto, com ainda mais força, nas relações de consumo (B2C), onde a responsabilidade é objetiva nos termos do CDC, ou seja, independe de culpa.
O ponto central é este: a IA é uma ferramenta, não um escudo. A responsabilidade permanece com quem toma a decisão de usar o contrato como ele está.
A inteligência artificial é uma aliada poderosa na rotina jurídica das empresas, mas precisa ser tratada como o que ela é: uma ferramenta, não uma solução completa. Usar IA para elaborar contratos sem revisão qualificada é como usar um GPS sem olhar a estrada: na maioria das vezes funciona, mas quando falha, o prejuízo pode ser grande.
Se a sua empresa já utiliza IA para contratos (ou pretende utilizar), o caminho é simples: use a tecnologia para ganhar velocidade, mas conte com apoio jurídico especializado tanto para estruturar a forma como a IA é utilizada internamente quanto para revisar os documentos gerados antes da assinatura.
No fim do dia, quem controla a IA é quem a utiliza. E quem assina o contrato é quem responde por ele.
1. Posso dizer ao juiz que a culpa de uma cláusula abusiva foi da IA? Não. Juridicamente, quem assina o contrato é o responsável por ele. A IA é considerada uma ferramenta, como um processador de textos. O erro da ferramenta é risco do usuário.
2. A IA pode me ajudar a entender um contrato enviado por um fornecedor? Sim, ela é excelente para resumir pontos críticos e traduzir “juridiquês”. Mas atenção: ela pode deixar passar entrelinhas maliciosas que só um olhar humano treinado detecta.
3. Existe alguma IA que já conheça todas as leis brasileiras perfeitamente? Ainda não. Mesmo modelos treinados em bases jurídicas podem “alucinar” ao cruzar leis diferentes ou interpretar jurisprudência recente. A confiança deve ser sempre parcial.
4. O uso de IA em contratos fere a LGPD? Se você inserir dados pessoais de clientes ou funcionários no prompt de uma IA pública, sim, você pode estar violando a LGPD ao realizar um tratamento de dados sem a devida segurança e transparência

Estamos prontos para ajudar sua startup a crescer. Agende uma consulta e saiba mais!
Estamos prontos para ajudar seu negócio a crescer. Agende uma consulta e saiba mais!