Fintechs

IA na concessão de crédito: Como alinhar modelos de score de crédito às exigências de explicabilidade do BACEN.

Escrito por Jhenifer Messias, advogado especialista em direito regulatório para fintechs, startups e empresas digitais na NDM Advogados.

Desde 2014 oferecemos assessoria jurídica e contábil completa para empresas tech crescerem com segurança e poderem focar no que importa.

Atualizado em 08/04/2026

O uso de IA na concessão de crédito deixou de ser tendência para se tornar realidade operacional em praticamente todas as instituições financeiras que buscam escalar suas carteiras com eficiência. Modelos de machine learning substituíram, ou passaram a complementar as análises tradicionais de bureau, reduzindo custos, aumentando a velocidade de decisão e, em tese, aprimorando a assertividade na avaliação de risco.

Contudo, esse avanço tecnológico trouxe consigo um paradoxo regulatório: quanto mais sofisticado o modelo, menor tende a ser sua transparência. As chamadas “caixas-pretas” dos algoritmos de redes neurais profundas resistem à explicação humana convencional, e é exatamente aqui que o Banco Central do Brasil (BACEN) impõe um conjunto de exigências que as instituições do setor financeiro não podem ignorar.

Este artigo tem por objetivo apresentar, de forma clara e fundamentada, o arcabouço regulatório aplicável aos modelos de IA utilizados no score de crédito, os riscos jurídicos da não conformidade e as medidas concretas que fintechs, instituições de pagamento, subadquirentes, gateways e demais entidades autorizadas ou reguladas pelo BACEN devem adotar para operar com segurança jurídica plena.

Índice

1. O contexto: A ascensão da IA na concessão de crédito no Brasil

1.1 Da estatística clássica ao Machine Learning

Por muitas décadas, a análise de risco de crédito operou de forma analógica e engessada. Os modelos tradicionais dependiam de estatística básica, como pontuações simples (scorecards) e árvores de decisão. A grande vantagem dessa época era a transparência: a lógica por trás da aprovação ou negação de crédito era de fácil compreensão para analistas humanos e auditores. No entanto, a explosão do Big Data e o barateamento do poder computacional mudaram as regras do jogo de forma irreversível. 

Hoje, as instituições financeiras não olham apenas para o histórico do Serasa. Fintechs de crédito, bancos digitais, plataformas de Buy Now, Pay Later (BNPL) e adquirentes utilizam algoritmos de Machine Learning e inteligência artificial avançada (como redes neurais e modelos preditivos complexos) para analisar milhares de variáveis de um usuário de forma simultânea.

O resultado? Em questão de milissegundos, a IA decide não apenas se o cliente ou empresa receberá o crédito, mas também crava a taxa de juros ideal e o limite exato, otimizando o lucro e mitigando a inadimplência.

O mercado brasileiro já absorveu essa realidade de forma maciça. Para se ter uma ideia do tamanho desse ecossistema:

  • Um mercado gigante: O Brasil conta com mais de 1.700 instituições autorizadas a funcionar pelo Banco Central.
  • A força das Fintechs: Desse total, mais de 200 operam como Sociedades de Crédito Direto (SCDs) e Sociedades de Empréstimo entre Pessoas (SEPs).

Nesse cenário altamente competitivo, a IA deixou de ser um mero diferencial tecnológico; ela se tornou o próprio coração da operação financeira. O desafio agora não é mais como construir esses modelos, mas sim como garantir que eles não entrem em conflito com a lupa atenta do BACEN.

1.2 O problema da explicabilidade

A expressão “caixa-preta” designa modelos cujos processos de tomada de decisão são opacos, mesmo para seus criadores. Um modelo com centenas de árvores e milhares de nós, ou uma rede neural com múltiplas camadas ocultas, não produz, por si só, uma explicação humanamente inteligível para cada decisão individual que toma.

Essa opacidade gera pelo menos três ordens de problemas jurídicos:

  • Impossibilidade de informar ao consumidor os motivos de recusa de crédito, em violação ao Código de Defesa do Consumidor e às normas do BACEN sobre atendimento e transparência;
  • Risco de perpetuação de vieses discriminatórios, raciais, de gênero, regionais, embutidos nos dados históricos de treinamento, sem que a instituição sequer perceba;
  • Dificuldade de demonstrar ao supervisor que os modelos são robustos, validados e controlados, conforme exigido pela regulação prudencial.

Um estudo publicado pelo Banco Central do Brasil em 2023 (Relatório de Estabilidade Financeira) identificou que o uso de modelos de crédito baseados em IA sem adequada documentação e governança constitui um dos principais vetores de risco operacional emergente no sistema financeiro nacional.

1.3 Por que isso importa para Fintechs e Meios de Pagamento?

Muitos operadores de meios de pagamento, gateways, subadquirentes, plataformas de antecipação de recebíveis e correspondentes bancários, realizam análises de risco de seus estabelecimentos comerciais ou de consumidores finais sem se enquadrarem formalmente na categoria de “concessores de crédito”. Contudo, na medida em que tais análises influenciam decisões financeiras (habilitação de lojistas, limites de transação, antecipação de recebíveis), o regulador brasileiro tem expandido sua interpretação de quais entidades estão sujeitas às exigências de governança de modelos.

A tendência regulatória global, e o BACEN acompanha de perto os desenvolvimentos do Financial Stability Board (FSB), do Comitê de Basileia e da União Europeia (AI Act), é de que toda decisão automatizada com impacto financeiro relevante deve ser explicável, auditável e sujeita a controles de qualidade continuados.

2. O marco regulatório: O que o BACEN já exige do uso da IA no setor financeiro

Ao contrário do que se poderia supor, o Brasil não carece de regulação aplicável à IA no setor financeiro. O que muitas vezes falta é a percepção das instituições de que normas já existentes, algumas anteriores ao boom da IA generativa, se aplicam diretamente aos seus modelos algorítmicos.

2.1 Resolução BCB nº 85/2021 – Política Institucional de Responsabilidade Social, Ambiental e Climática (PRSAC)

Embora primariamente focada em ESG, a Resolução BCB nº 85/2021 estabelece que as instituições autorizadas devem considerar, em suas políticas de crédito e concessão, os impactos sociais de suas decisões. Modelos de IA que sistematicamente excluem grupos populacionais vulneráveis,  mesmo que não intencionalmente, podem ser questionados sob esta norma.

2.2 Resolução CMN nº 4.966/2021 – Risco de Crédito e PCLD

Esta resolução, que substitui a Resolução CMN nº 2.682/1999, modernizou as regras de Provisão para Créditos de Liquidação Duvidosa (PCLD) e adotou a abordagem de perdas esperadas (Expected Credit Loss — ECL), alinhada ao IFRS 9. Seu artigo 22 determina que os modelos internos de risco de crédito devem ser:

  • Documentados de forma abrangente, incluindo suas premissas, limitações e variáveis relevantes;
  • Validados periodicamente por área independente daquela responsável pelo desenvolvimento;
  • Monitorados continuamente quanto à sua aderência à realidade (backtesting);
  • Submetidos a testes de estresse para avaliar seu comportamento em cenários adversos.

Estas exigências se aplicam a qualquer modelo quantitativo de avaliação de risco de crédito, o que inclui inequivocamente os modelos de machine learning.

2.3 Resolução BCB nº 4.557/2017 – Gerenciamento de Riscos

A estrutura de gerenciamento de riscos exigida pelo BACEN contempla, dentre outros, o risco de modelo, definido como a possibilidade de que decisões tomadas com base em modelos quantitativos produzam resultados adversos em razão de erros de especificação, implementação ou uso inadequado do modelo.

O risco de modelo é um conceito que se aplica com especial força aos algoritmos de IA, dado que:

  • A seleção de variáveis (feature engineering) pode capturar correlações espúrias;
  • O treinamento em períodos históricos específicos pode gerar modelos que falham em regimes econômicos diferentes;
  • A complexidade do modelo pode dificultar a detecção tempestiva de degradação de performance (model drift).

2.4 Comunicado BACEN nº 31.379/2018 e Agenda BC

O Comunicado BACEN nº 31.379/2018 sinalizou pela primeira vez a preocupação regulatória com o uso de inteligência artificial e big data no sistema financeiro, indicando que o BACEN passaria a desenvolver estudos e eventualmente normas específicas sobre o tema.

A Agenda BC, é a estratégia do Banco Central para o período 2019-2022 e suas versões subsequentes, consolidou os pilares de Inclusão, Competitividade, Transparência, Educação e Sustentabilidade como vetores regulatórios. A aplicação desses pilares ao uso de IA implica, entre outras coisas, garantir que modelos algorítmicos não criem barreiras artificiais de acesso ao crédito.

2.5 A LGPD e sua interface com os modelos de score

A Lei nº 13.709/2018 (LGPD) introduziu, em seu artigo 20, o direito do titular de dados a solicitar revisão de decisões automatizadas que afetem seus interesses, incluindo, expressamente, decisões relativas a seu perfil de crédito. Este dispositivo tem implicação direta para qualquer instituição que utilize algoritmos de score:

Exigência da LGPD (Art. 20)Implicação Prática para Modelos de IA
Direito à revisão de decisão automatizadaA instituição deve manter processo de contestação e análise humana
Direito à explicação sobre critérios e procedimentosOs modelos devem ser documentados e seus critérios devem ser comunicáveis
Direito a informações claras sobre o tratamentoA política de privacidade deve detalhar o uso de IA nas decisões de crédito
Proibição de decisões baseadas em dado sensível sem consentimentoVariáveis proxy que indiquem etnia, religião ou saúde são vedadas
Necessidade de base legal adequadaInteresse legítimo ou execução de contrato são as bases mais comuns — devem ser documentadas

2.6 Normas em desenvolvimento: o futuro regulatório

O BACEN publicou, em 2023, o Relatório de Avaliação de Impacto Regulatório sobre IA no Sistema Financeiro, sinalizando a intenção de editar regulação específica sobre uso responsável de inteligência artificial. Os principais elementos esperados para essa norma, com base nas consultas públicas realizadas e nos documentos de trabalho do BCB, incluem:

  • Exigência formal de explicabilidade mínima para modelos de decisão de crédito;
  • Obrigação de avaliação de impacto algorítmico (semelhante ao Data Protection Impact Assessment da LGPD);
  • Requisitos de diversidade e representatividade nos dados de treinamento;
  • Critérios mínimos para validação independente de modelos de IA;
  • Obrigação de registro e inventário de modelos de IA utilizados pelas instituições.

As instituições que aguardarem a edição da norma específica de IA para iniciar sua adequação estarão em desvantagem significativa. O BACEN já avalia, nas inspeções in loco e nas solicitações de informação, a qualidade da governança de modelos das instituições autorizadas. A regulação futura tende a formalizar e tornar exigível o que os supervisores já esperam encontrar.

3. Explicabilidade de IA: O coração do problema regulatório

3.1 O que é Explicabilidade e por que o BACEN se importa

Explainable AI (XAI) é o conjunto de técnicas, métodos e práticas que permitem a seres humanos compreender e avaliar os fatores que influenciaram uma decisão tomada por um sistema de inteligência artificial. No contexto do crédito, XAI significa a capacidade de responder, de forma auditável:

  • Por que este consumidor foi aprovado com este limite e esta taxa?
  • Por que este consumidor foi recusado? Quais variáveis pesaram mais contra ele?
  • O modelo está tratando diferentes grupos populacionais de forma equitativa?
  • Como o modelo se comportaria se determinadas variáveis mudassem?

Para o BACEN, a explicabilidade interessa por razões que vão além da transparência individual: ela é o mecanismo pelo qual a autoridade supervisora pode verificar a solidez dos modelos, identificar vieses sistêmicos e avaliar se as decisões automatizadas são compatíveis com as políticas de crédito declaradas pela instituição.

3.2 Técnicas reconhecidas e aceitas

O mercado e os reguladores financeiros ao redor do mundo têm convergido em torno de um conjunto de técnicas de explicabilidade que, quando corretamente implementadas, atendem às exigências de transparência:

SHAP (SHapley Additive exPlanations)

Baseado na teoria dos jogos cooperativos, o SHAP calcula a contribuição marginal de cada variável para a decisão final do modelo. É atualmente a técnica mais aceita pelo mercado financeiro global e por reguladores como o Federal Reserve (EUA) e o Prudential Regulation Authority (Reino Unido). Permite explicações individuais (por decisão) e globais (comportamento geral do modelo).

LIME (Local Interpretable Model-agnostic Explanations)

O LIME cria um modelo local simples e interpretável (como uma regressão linear) que aproxima o comportamento do modelo complexo na vizinhança de um ponto de dados específico. É útil para explicações pontuais, mas exige cuidado em sua interpretação, pois as explicações são localmente válidas e podem não refletir o comportamento global do modelo.

Modelos Inerentemente Interpretáveis

Para situações de alto risco ou onde a regulação exige explicabilidade robusta, pode ser preferível adotar modelos inerentemente interpretáveis, como regressão logística, árvores de decisão rasas ou scorecard linear, em detrimento de modelos de maior complexidade preditiva. A regulação não proíbe o uso de modelos complexos, mas implica que a instituição deve ter meios de explicar suas decisões.

Análise de Importância de Variáveis e Partial Dependence Plots

Técnicas de interpretabilidade global, como a importância de variáveis por permutação e os Partial Dependence Plots (PDPs), permitem compreender como cada variável do modelo se relaciona com o output em termos médios. São úteis para documentação e para demonstrar ao supervisor o funcionamento geral do modelo.

A NDM Advogados recomenda que as instituições adotem uma abordagem em camadas para a explicabilidade: (i) uma explicação global do modelo para fins de documentação e auditoria; (ii) explicações individuais por decisão, utilizáveis no atendimento ao consumidor; e (iii) um processo formal de contestação que garanta revisão humana quando solicitada.

3.3 Explicabilidade e a comunicação da recusa ao consumidor

A Resolução CMN nº 4.949/2021 e o Regulamento Anexo à Resolução BCB nº 96/2021, que dispõem sobre o Serviço de Atendimento ao Consumidor (SAC) no âmbito do Sistema Financeiro Nacional, exigem que as instituições prestem informações claras e completas aos consumidores sobre as razões de decisões que os afetem.

No contexto de modelos de score automatizados, esta exigência se desdobra na obrigação de:

  • Disponibilizar ao consumidor os fatores determinantes da decisão (ex.: histórico de inadimplência, comprometimento de renda, tempo de relacionamento);
  • Apresentar esses fatores em linguagem acessível, sem jargão técnico;
  • Indicar, quando aplicável, as medidas que o consumidor poderia tomar para melhorar sua avaliação futura;
  • Registrar formalmente a comunicação e o fundamento da decisão.

A incapacidade de cumprir estas exigências — derivada, muitas vezes, da opacidade do modelo — configura violação à regulação de relacionamento com o consumidor e pode ensejar punições do BACEN, multas e a obrigação de adequação.

4. Governança de modelos: O que o BACEN espera encontrar

A expressão “governança de modelos” (model governance) designa o conjunto de políticas, processos, controles e responsabilidades que uma instituição estabelece para garantir que seus modelos quantitativos sejam desenvolvidos, validados, implementados, monitorados e descontinuados de forma controlada e documentada.

4.1 Os 5 pilares da governança de modelos de IA

I — Inventário e Registro de Modelos

Toda instituição autorizada deve manter um inventário atualizado de todos os modelos de IA em uso, incluindo sua finalidade, arquitetura, dados de treinamento, versão vigente, responsável pelo desenvolvimento e data de última validação. Este inventário é o ponto de partida de qualquer inspeção supervisória.

II — Documentação Técnica e Funcional

Cada modelo deve possuir documentação que descreva: (a) o problema de negócio que resolve; (b) as variáveis de entrada e sua justificativa; (c) o algoritmo e suas configurações (hiperparâmetros); (d) as métricas de performance e os thresholds de aprovação; (e) as limitações conhecidas e os casos em que o modelo não deve ser utilizado; (f) o histórico de versões e alterações.

III — Validação Independente

O BACEN exige que a validação dos modelos seja realizada por área ou equipe independente daquela responsável pelo desenvolvimento — o chamado “four-eyes principle”. A validação deve abranger: testes de performance out-of-sample, avaliação de estabilidade ao longo do tempo, análise de vieses e impacto diferenciado por grupos, e verificação da aderência às políticas de crédito.

IV — Monitoramento Contínuo e Backtesting

Modelos de crédito degradam com o tempo. Mudanças no comportamento econômico, na composição da clientela ou nas políticas de concessão podem tornar um modelo anteriormente acurado em um gerador de decisões inadequadas. O BACEN espera que as instituições monitorem continuamente as métricas de performance de seus modelos (Gini, KS, AUC-ROC) e realizem backtesting regular para comparar as previsões do modelo com os resultados reais.

V — Processo de Gestão de Ciclo de Vida

Modelos devem ter um ciclo de vida gerenciado: desde a concepção, passando pelo desenvolvimento e validação, pela implementação em produção, pelo monitoramento e revisão periódica, até a eventual descontinuação e substituição. Cada fase deve ser documentada e aprovada por alçada adequada.

5. Riscos jurídicos e sanções pela não conformidade

5.1 Sanções administrativas do BACEN

O Banco Central do Brasil possui amplo poder sancionatório sobre as instituições autorizadas. A Lei Complementar nº 179/2021 e a Lei nº 13.506/2017 autorizam o BACEN a aplicar, entre outras penalidades:

  • Multas de até R$ 2 bilhões por infração, para pessoas jurídicas, nos casos mais graves;
  • Inabilitação temporária ou permanente de administradores;
  • Cancelamento da autorização para funcionamento;
  • Determinação de adequação ou plano de ação corretivo com prazo definido.

As infrações relacionadas à governança inadequada de modelos de IA podem ser enquadradas em múltiplos dispositivos normativos simultaneamente, potencializando o risco sancionatório.

5.2 Responsabilidade Civil perante os consumidores

A decisão automatizada de crédito que cause dano ao consumidor, seja pela recusa injustificada, pela imposição de condições mais onerosas em razão de variáveis ilegítimas, ou pela impossibilidade de obter explicação e contestação,  pode ensejar responsabilidade civil da instituição. O Código de Defesa do Consumidor estabelece responsabilidade objetiva do fornecedor de serviços, prescindindo da demonstração de culpa.

A configuração de dano moral em razão de recusa de crédito baseada em critérios discriminatórios ou em modelos sem adequada governança é uma tendência reconhecida na jurisprudência do Superior Tribunal de Justiça (STJ) e dos Tribunais de Justiça estaduais.

5.3 Risco reputacional e efeitos concorrenciais

Além dos riscos jurídicos diretos, a exposição de falhas em modelos de IA, seja por investigação supervisória, por ação judicial coletiva ou por cobertura midiática, pode gerar danos reputacionais significativos. No ambiente altamente competitivo das fintechs e meios de pagamento, a reputação de conformidade regulatória é ativo estratégico relevante, especialmente para instituições que dependem de parcerias com bancos tradicionais ou que buscam novas autorizações.

5.4 Responsabilização de administradores e diretores de compliance

A tendência regulatória global, seguida pelo BACEN, é de responsabilizar individualmente os administradores e diretores responsáveis pela área de modelos, risco e compliance em casos de falhas sistêmicas de governança. A nomeação de um Diretor de Conformidade (Chief Compliance Officer) e a formalização de sua responsabilidade sobre a governança de modelos é medida de higiene regulatória essencial.

6. Checklist prático de adequação regulatória

A seguir, apresentamos um checklist orientativo, não exaustivo, das medidas que as instituições autorizadas devem adotar para alinhar seus modelos de score de crédito baseados em IA às exigências regulatórias do BACEN e ao arcabouço legal vigente.

6.1 Governança e documentação

  • Elaborar e aprovar pelo Conselho de Administração (ou equivalente) uma Política de Governança de Modelos;
  • Manter inventário atualizado de todos os modelos de IA em uso;
  • Elaborar documentação técnica completa para cada modelo (Model Card);
  • Formalizar o processo de desenvolvimento, validação e aprovação de modelos;
  • Designar formalmente o responsável pela área de validação independente de modelos;
  • Implementar processo de gestão de ciclo de vida dos modelos.

6.2 Explicabilidade e atendimento ao consumidor

  • Implementar técnica de explicabilidade (SHAP, LIME ou equivalente) em todos os modelos de decisão de crédito;
  • Desenvolver sistema de geração de explicações individuais por decisão, em linguagem acessível;
  • Integrar as explicações ao processo de SAC e canais de atendimento;
  • Treinar equipes de atendimento para comunicar decisões algorítmicas;
  • Implementar processo formal de contestação de decisões automatizadas com revisão humana;
  • Atualizar a Política de Privacidade para detalhar o uso de IA nas decisões de crédito.

6.3 Dados e equidade algorítmica

  • Realizar análise de qualidade e representatividade dos dados de treinamento;
  • Conduzir avaliação de impacto diferenciado do modelo por grupos protegidos;
  • Documentar as medidas de mitigação de viés adotadas;
  • Auditar as variáveis de entrada para identificar potenciais proxies discriminatórios;
  • Estabelecer processo de atualização periódica dos dados de treinamento.

6.4 Monitoramento e validação

  • Definir métricas de performance mínimos para cada modelo;
  • Implementar rotina de monitoramento mensal das métricas de performance;
  • Realizar teste semestral ou sempre que houver mudança significativa no portfólio;
  • Conduzir validação independente pelo menos anualmente;
  • Implementar alertas automáticos para degradação de performance.

6.5 LGPD e Proteção de Dados

  • Realizar o Relatório de Impacto à Proteção de Dados Pessoais (RIPD) para os modelos de IA;
  • Mapear as bases legais para o tratamento de dados em cada etapa do processo;
  • Implementar mecanismo para atendimento de direitos dos titulares, incluindo o art. 20;
  • Revisar os contratos com fornecedores de dados e modelos quanto à LGPD.
IMPORTANTE: PARTICULARIDADES POR TIPO DE INSTITUIÇÃO
Fintechs de Crédito (SCD/SEP): Sujeitas à regulação prudencial completa do BACEN — o checklist acima se aplica integralmente.
Instituições de Pagamento (IPs): Sujeitas às regras de governança e relacionamento com consumidor; a aplicação ao score de risco de lojistas/usuários varia conforme o modelo de negócio.
Subadquirentes e Gateways: Em geral não são autorizados pelo BACEN, mas podem ser afetados por obrigações contratuais com adquirentes e bandeiras, além da LGPD.
Correspondentes Bancários: Devem observar as regras da instituição financeira contratante quanto à análise de crédito.

7. Tendências Internacionais e o Impacto no Brasil

7.1 O AI Act da União Europeia e seus reflexos

O Regulamento (UE) 2024/1689, o AI Act europeu, em vigor desde agosto de 2024, classifica os sistemas de IA utilizados para avaliação da solvabilidade de pessoas físicas e para pontuação de crédito como sistemas de “alto risco”, sujeitos às exigências mais rigorosas da regulação, incluindo:

  • Avaliação de conformidade obrigatória antes da colocação em serviço;
  • Registro em base de dados da UE;
  • Documentação técnica e de governança extensiva;
  • Obrigações de transparência e explicabilidade;
  • Supervisão humana obrigatória;
  • Gestão de qualidade de dados.

Embora o AI Act não se aplique diretamente ao Brasil, instituições brasileiras que operam ou pretendem operar em mercados europeus, ou que são subsidiárias de grupos europeus, devem observar esse marco regulatório. Além disso, o AI Act tende a influenciar diretamente a regulação brasileira de IA, o Projeto de Lei nº 2.338/2023 (Marco Legal de IA) em tramitação no Senado Federal foi amplamente inspirado no modelo europeu.

O Projeto de Lei nº 2.338/2023, aprovado pelo Senado e em tramitação na Câmara dos Deputados (com perspectiva de promulgação em 2025), estabelece o Marco Legal de IA no Brasil. Seus dispositivos de maior relevância para o setor financeiro incluem:

  • Classificação de sistemas de IA para avaliação de crédito como “alto risco”;
  • Direito do indivíduo a contestar decisões automatizadas de alto impacto;
  • Exigência de avaliação de impacto de sistemas de IA de alto risco;
  • Responsabilidade civil objetiva do agente econômico pelos danos causados por sistemas de IA;
  • Obrigações de transparência e explicabilidade alinhadas ao AI Act europeu.

Uma vez aprovado e em vigor, o Marco Legal de IA criará uma camada adicional de exigências que se sobreporá, e em alguns casos irá além,das exigências setoriais do BACEN. As instituições que já tiverem investido em adequação estarão em posição de conformidade privilegiada.

7.3 O movimento global por crédito justo e inclusivo

O conceito de Fair Lending, crédito justo e não discriminatório, tem ganhado força nos Estados Unidos (através do Equal Credit Opportunity Act e do Fair Housing Act) e na União Europeia. O BACEN, comprometido com a agenda de inclusão financeira, tem sinalizado que a avaliação de equidade dos modelos de crédito será progressivamente incorporada ao escopo das inspeções supervisórias.

Instituições que demonstrarem proativamente que seus modelos promovem inclusão financeira, e não simplesmente reproduzem exclusões históricas, terão vantagem competitiva e regulatória relevante.

8. Considerações finais

A inteligência artificial transformou,  e continuará transformando, o setor financeiro brasileiro de forma profunda e irreversível. A velocidade, a escala e a sofisticação que os modelos algorítmicos proporcionam são vantagens competitivas reais, que nenhuma instituição pode se dar ao luxo de ignorar.

Contudo, a adoção de IA sem o correspondente investimento em governança, explicabilidade e adequação regulatória é uma estratégia de curto prazo que cria riscos jurídicos, operacionais e reputacionais de longo prazo. O BACEN já sinalizou, de forma inequívoca, que a qualidade da governança de modelos é critério central de avaliação das instituições autorizadas.

O momento de agir é agora, antes que a norma específica de IA chegue formalmente, antes que uma inspeção identifique as lacunas, antes que um processo administrativo ou uma ação civil coletiva force uma adequação dispendiosa e em condições desfavoráveis.

As instituições que encaram a conformidade regulatória em IA não como um custo, mas como um diferencial, de gestão, de reputação e de acesso a capital e parcerias, são as que estarão mais bem posicionadas no sistema financeiro brasileiro dos próximos anos.

A NDM Advogados é um escritório especializado em Direito Regulatório Financeiro e Tecnologia, com atuação focada no universo das fintechs, instituições de pagamento, meios de pagamento, gateways e demais entidades autorizadas ou supervisionadas pelo Banco Central do Brasil.

Nossa equipe combina expertise jurídica aprofundada com visão prática do mercado financeiro, o que nos permite oferecer soluções que não são apenas tecnicamente corretas, mas operacionalmente implementáveis.

Realizamos análise completa da situação atual de sua instituição em relação às exigências do BACEN, LGPD e legislação aplicável, identificando lacunas e priorizando ações de adequação por nível de risco.

Desenvolvemos políticas de governança de modelos de IA, frameworks de validação independente, processos de gestão de ciclo de vida e documentação regulatória, adaptados à realidade e ao porte de sua instituição.

Analisamos juridicamente os modelos de IA em uso, suas variáveis de entrada, bases de dados e processos decisórios, identificando riscos de viés discriminatório, violações à LGPD e exposições regulatórias.

Elaboramos RIPDs (Relatórios de Impacto à Proteção de Dados) para sistemas de IA, revisamos políticas de privacidade e contratos de dados, e assessoramos no atendimento de direitos dos titulares, incluindo o direito à explicação (art. 20 da LGPD).

Representamos instituições em processos administrativos, solicitações de informação, inspeções e diálogo regulatório com o Banco Central do Brasil, a ANPD e demais autoridades competentes.

Oferecemos treinamentos customizados para equipes de tecnologia, produto, compliance, jurídico e C-level sobre os temas de IA regulatória, proteção de dados e governança de modelos.

Para assessoria personalizada, entre em contato com nossos especialistas.

Por Jhenifer Messias

Advogada especialista em regulatório para Fintechs

NDM Advogados especializado em fintechs, startups, instituições de pagamento e empresas de tecnologia
Compartilhe esse conteúdo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Fique por dentro das nossas novidades!

Inscreva-se para receber atualizações exclusivas.

Entre em
contato conosco

Estamos prontos para ajudar sua startup a crescer. Agende uma consulta e saiba mais!

Estamos prontos para ajudar seu negócio a crescer. Agende uma consulta e saiba mais!