Assessoria Jurídica para Empresa de Inteligência Artificial
A inteligência artificial está reconfigurando setores inteiros da economia — e o direito está correndo para acompanhar. No Brasil, o PL 2338/2023 avança no Congresso com velocidade crescente, enquanto a LGPD já impõe obrigações concretas sobre sistemas de decisão automatizada e o regulador europeu vigora com o AI Act, que alcança qualquer empresa que atenda usuários na União Europeia. Para quem desenvolve ou usa IA em produtos e serviços, ignorar esse cenário não é uma opção — é um risco de negócio calculável.
O problema central é que a maioria das empresas de IA no Brasil ainda opera sem ter respondido perguntas jurídicas fundamentais: quem é responsável se o modelo cometer um erro que cause dano a alguém? A empresa detém a propriedade intelectual dos outputs gerados pelo sistema? Os dados usados para treinar o modelo foram obtidos com base legal adequada? Os contratos com clientes limitam corretamente a responsabilidade da empresa pelos resultados do modelo?
Essas perguntas não têm respostas simples — mas precisam de respostas antes que a lei as formule de forma desfavorável para você.
A NDM Advogados é um dos escritórios pioneiros em assessoria jurídica para empresas de IA no Brasil. Com prática consolidada em direito de tecnologia e privacidade de dados, acompanhamos o desenvolvimento regulatório do setor e traduzimos esse cenário em proteções concretas para nossos clientes. Nenhum outro nicho jurídico está crescendo tão rápido — e tão poucos advogados estão de fato preparados para atendê-lo.
Falar com especialista agora →
O cenário jurídico de inteligência artificial no Brasil
O direito aplicável à IA no Brasil é, hoje, uma composição de normas gerais adaptadas — mas isso está mudando com rapidez.
A LGPD já regula decisões automatizadas. O artigo 20 da Lei Geral de Proteção de Dados garante ao titular de dados pessoais o direito de solicitar revisão humana de decisões tomadas exclusivamente por meios automatizados que afetem seus interesses — incluindo decisões sobre crédito, emprego, saúde e acesso a serviços. Sistemas de IA que tomam ou influenciam essas decisões precisam ser desenhados com esse direito em mente: o que significa ter a revisão humana estruturada no processo, e não como resposta improvisada a uma reclamação.
O PL 2338/2023 está avançando. O Projeto de Lei 2338/2023, aprovado pelo Senado Federal e em tramitação na Câmara dos Deputados, estabelece um regime de responsabilidade baseado em risco para sistemas de IA. Sistemas de alto risco — incluindo aqueles usados em decisões de crédito, saúde, emprego e segurança pública — estarão sujeitos a obrigações mais rigorosas de transparência, documentação técnica e responsabilidade. Quando a lei for aprovada, empresas sem conformidade prévia terão prazo curto para adequação.
Responsabilidade civil sem lei específica. Até a aprovação do PL, empresas de IA respondem por danos causados pelos seus sistemas com base nas regras gerais do Código Civil e do Código de Defesa do Consumidor. A questão central — se a responsabilidade é objetiva (independente de culpa) ou subjetiva — ainda não tem resposta uniforme na jurisprudência. Isso torna ainda mais importante ter contratos que delimitem claramente as responsabilidades de cada parte.
Propriedade intelectual de outputs gerados por IA. A legislação brasileira de direitos autorais exige criatividade humana para reconhecer autoria. Outputs gerados autonomamente por IA — textos, imagens, código, composições musicais — estão em zona cinzenta: não são, a rigor, de ninguém. Isso tem implicações para produtos que comercializam conteúdo gerado por IA e para contratos que envolvem a entrega de tais outputs.
O AI Act europeu tem alcance extraterritorial. Empresas brasileiras que oferecem produtos ou serviços a usuários na União Europeia estão sujeitas ao AI Act — assim como estão sujeitas ao GDPR para dados pessoais. O AI Act classifica sistemas de IA por nível de risco e impõe obrigações crescentes para sistemas de alto risco.
Como a NDM Advogados atua em assessoria jurídica para empresas de IA
Adequação à LGPD para Sistemas de IA (Artigo 20 e Tratamento de Dados de Treinamento)
A NDM conduz a adequação de sistemas de IA à LGPD em duas dimensões. A primeira é a do artigo 20: mapeamos quais decisões automatizadas o sistema toma ou influencia, identificamos quais delas afetam direitos de titulares de dados pessoais, e estruturamos o processo de revisão humana que a lei exige — incluindo como o usuário pode solicitar essa revisão e como a empresa deve respondê-la.
A segunda dimensão é a dos dados de treinamento: analisamos se os dados utilizados para treinar os modelos foram obtidos com base legal adequada (consentimento, legítimo interesse, dados públicos), se há dados sensíveis no conjunto de treinamento que exigem tratamento especial, e se o modelo memoriza e pode reproduzir dados pessoais que não deveria.
Análise de Conformidade com o PL 2338/2023
A NDM acompanha a tramitação do PL 2338/2023 e conduz análises de conformidade preventiva para empresas que querem estar prontas quando a lei for aprovada. Isso inclui: classificação dos sistemas de IA da empresa por nível de risco conforme o projeto de lei, mapeamento das obrigações aplicáveis a cada categoria, avaliação da documentação técnica existente versus o que a lei vai exigir (fichas de modelo, avaliações de impacto, logs de decisão), e roadmap de adequação com prioridades definidas pelo risco regulatório.
Empresas que fizerem essa análise agora terão muito menos trabalho quando a lei entrar em vigor — e estarão em posição competitiva superior frente a concorrentes que esperarem o prazo final.
Propriedade Intelectual de Outputs Gerados por IA
A NDM analisa as implicações de propriedade intelectual para produtos que geram ou comercializam conteúdo produzido por IA. Isso envolve: análise da proteção disponível para outputs gerados pelo sistema (quando há contribuição criativa humana suficiente para configurar autoria), elaboração de contratos com clientes que definam claramente a propriedade dos outputs gerados durante o uso do serviço, gestão de riscos de violação de direitos autorais pelo modelo (uso indevido de obras protegidas no treinamento), e estruturação de políticas de uso aceitável que limitem responsabilidade da empresa por outputs inadequados.
Contratos de Desenvolvimento e Uso de IA
A NDM elabora e revisa contratos para todas as relações contratuais típicas de empresas de IA: contratos de desenvolvimento de sistemas de IA com definição de propriedade dos modelos treinados e do código, contratos de fornecimento de IA como serviço (AIaaS) com cláusulas de limitação de responsabilidade, garantias sobre precisão e performance, e obrigações de atualização, contratos de uso de APIs de terceiros (OpenAI, Anthropic, Google) com análise de responsabilidade por outputs, e acordos de compartilhamento de dados para treinamento com obrigações de confidencialidade e proteção de IP.
A alocação contratual de responsabilidade é especialmente crítica em IA: quem responde por um erro do modelo que causou dano ao usuário final? O desenvolvedor, o operador, o usuário — ou todos? Essa pergunta precisa de resposta contratual antes que apareça judicialmente.
Adequação ao AI Act Europeu para Empresas que Atendem a UE
O AI Act europeu (Regulamento UE 2024/1689) está em vigor e entra em aplicação progressiva até 2027. Empresas brasileiras que oferecem sistemas de IA a usuários europeus estão sujeitas a ele — assim como estavam sujeitas ao GDPR independentemente de estarem fisicamente na Europa.
A NDM conduz: análise de aplicabilidade do AI Act para o produto específico, classificação do sistema conforme os níveis de risco do regulamento (inaceitável, alto risco, risco limitado, risco mínimo), mapeamento das obrigações aplicáveis à categoria (avaliação de conformidade, documentação técnica, registro no banco de dados europeu de IA de alto risco), e integração da conformidade com o AI Act na estratégia de entrada no mercado europeu.
Para quem é esta assessoria
Startups que desenvolvem produtos de IA — ferramentas de geração de conteúdo, sistemas de recomendação, automação de processos, análise preditiva — e precisam estruturar juridicamente o produto antes de escalar.
Empresas que integram IA de terceiros em seus processos ou produtos e precisam entender sua responsabilidade pelos outputs e adequar seus contratos com fornecedores e clientes.
Scale-ups e empresas de tecnologia que capturam dados de usuários para treinar modelos e precisam garantir que essa prática está em conformidade com a LGPD.
Empresas brasileiras com ambições internacionais que atendem ou planejam atender usuários europeus e precisam de conformidade dupla — LGPD e AI Act.
Fundadores de IA vertical — healthtech com diagnóstico assistido, legaltech com análise de contratos, fintechs com credit scoring automatizado — onde os sistemas tomam ou influenciam decisões de alto impacto sobre pessoas.
Se o seu produto ou processo usa IA para tomar decisões que afetam pessoas, você já está no escopo das normas existentes — e em breve estará no escopo da lei específica que está chegando.
Seja pioneiro na regulação do seu setor. Fale com a NDM.
Perguntas Frequentes
Quais são os riscos jurídicos para empresas que desenvolvem ou usam IA no Brasil?
Os principais riscos se concentram em quatro áreas. Primeira: responsabilidade civil por danos causados por decisões ou recomendações incorretas do sistema — que podem resultar em ações de usuários ou consumidores. Segunda: violação da LGPD no tratamento de dados pessoais durante o treinamento ou operação do modelo — com multas de até 2% do faturamento nacional. Terceira: violação de direitos autorais por uso não autorizado de obras protegidas no treinamento — um front de litígio em expansão global. Quarta: não conformidade com o PL 2338/2023 quando aprovado — que pode exigir adequação custosa em prazo curto. Empresas que estruturam conformidade preventiva eliminam ou mitigam todos esses riscos.
Quem é responsável por danos causados por um sistema de IA?
A resposta ainda não é uniformizada pela jurisprudência brasileira, mas a tendência é de responsabilidade do fornecedor do sistema quando o usuário é consumidor final — com base no CDC, que adota responsabilidade objetiva pelo fato do serviço. Para contratos B2B, a responsabilidade pode ser contratualmente alocada. O PL 2338/2023 propõe um regime de responsabilidade solidária para sistemas de alto risco, com inversão do ônus da prova em favor da vítima. Isso significa que o desenvolvedor ou operador precisará provar que tomou todas as medidas razoáveis para evitar o dano — o que exige documentação técnica robusta e processos de governança formalizados.
Outputs gerados por IA têm proteção de propriedade intelectual?
No Brasil, a proteção de direitos autorais exige autoria humana — um requisito que outputs puramente gerados por IA não preenchem. Isso significa que textos, imagens e composições criados autonomamente por um modelo não têm, a rigor, proteção de direitos autorais e pertencem ao domínio público. A situação muda quando há contribuição criativa humana significativa no processo — como curadoria, edição ou direção criativa do output. Contratos com clientes precisam refletir essa realidade: se você entrega outputs de IA como produto, precisa definir contratualmente quem é o “dono” e quais são suas representações sobre proteção do conteúdo. A ausência de clareza nesse ponto é fonte crescente de disputas comerciais.
O que é o PL 2338/2023 e como ele vai impactar empresas de IA no Brasil?
O PL 2338/2023 é o projeto de lei que cria o marco regulatório brasileiro para inteligência artificial. Aprovado pelo Senado em 2024, está em tramitação na Câmara dos Deputados. O projeto estabelece um regime baseado em risco: sistemas de IA com maior potencial de dano a pessoas estão sujeitos a obrigações mais rigorosas de transparência, documentação, avaliação de impacto e responsabilidade. Sistemas classificados como de “alto risco” — aqueles usados em decisões sobre crédito, emprego, saúde, segurança pública e acesso a serviços essenciais — precisarão de avaliação de conformidade prévia. O projeto também cria a Autoridade Brasileira de Inteligência Artificial (ABIA) como entidade reguladora. A aprovação na Câmara e a sanção presidencial são questão de tempo — não de se.
Minha empresa de IA que atende clientes europeus precisa se adequar ao AI Act?
Sim. O AI Act europeu tem alcance extraterritorial semelhante ao GDPR: se o seu sistema de IA é utilizado por pessoas dentro da União Europeia — mesmo que sua empresa esteja fisicamente no Brasil — o regulamento se aplica. Isso significa que você precisa: classificar seu sistema conforme os critérios de risco do AI Act, implementar as obrigações correspondentes à sua categoria de risco, e garantir que sua cadeia de fornecimento de IA (incluindo modelos de base de terceiros que você usa) está em conformidade. A vigência plena do AI Act está sendo escalonada até 2027, mas as obrigações para sistemas de alto risco e para modelos de propósito geral de alto impacto entram em vigor antes. Adequação preventiva é incomparavelmente mais barata que adequação emergencial.
Saiba mais
- Advogado LGPD para Empresas de Tecnologia
- Advogado em Propriedade Intelectual de Software
- Assessoria Jurídica para Startups
- Advogado para Empresa de Tecnologia
Dúvidas? Nossa equipe responde em até 1 dia útil.