IA na concessão de crédito: Como alinhar modelos de score de crédito às exigências de explicabilidade do BACEN.


Escrito por Jhenifer Messias, advogado especialista em direito regulatório para fintechs, startups e empresas digitais na NDM Advogados.
Desde 2014 oferecemos assessoria jurídica e contábil completa para empresas tech crescerem com segurança e poderem focar no que importa.
Atualizado em 08/04/2026
O uso de IA na concessão de crédito deixou de ser tendência para se tornar realidade operacional em praticamente todas as instituições financeiras que buscam escalar suas carteiras com eficiência. Modelos de machine learning substituíram, ou passaram a complementar as análises tradicionais de bureau, reduzindo custos, aumentando a velocidade de decisão e, em tese, aprimorando a assertividade na avaliação de risco.
Contudo, esse avanço tecnológico trouxe consigo um paradoxo regulatório: quanto mais sofisticado o modelo, menor tende a ser sua transparência. As chamadas “caixas-pretas” dos algoritmos de redes neurais profundas resistem à explicação humana convencional, e é exatamente aqui que o Banco Central do Brasil (BACEN) impõe um conjunto de exigências que as instituições do setor financeiro não podem ignorar.
Este artigo tem por objetivo apresentar, de forma clara e fundamentada, o arcabouço regulatório aplicável aos modelos de IA utilizados no score de crédito, os riscos jurídicos da não conformidade e as medidas concretas que fintechs, instituições de pagamento, subadquirentes, gateways e demais entidades autorizadas ou reguladas pelo BACEN devem adotar para operar com segurança jurídica plena.
Por muitas décadas, a análise de risco de crédito operou de forma analógica e engessada. Os modelos tradicionais dependiam de estatística básica, como pontuações simples (scorecards) e árvores de decisão. A grande vantagem dessa época era a transparência: a lógica por trás da aprovação ou negação de crédito era de fácil compreensão para analistas humanos e auditores. No entanto, a explosão do Big Data e o barateamento do poder computacional mudaram as regras do jogo de forma irreversível.
Hoje, as instituições financeiras não olham apenas para o histórico do Serasa. Fintechs de crédito, bancos digitais, plataformas de Buy Now, Pay Later (BNPL) e adquirentes utilizam algoritmos de Machine Learning e inteligência artificial avançada (como redes neurais e modelos preditivos complexos) para analisar milhares de variáveis de um usuário de forma simultânea.
O resultado? Em questão de milissegundos, a IA decide não apenas se o cliente ou empresa receberá o crédito, mas também crava a taxa de juros ideal e o limite exato, otimizando o lucro e mitigando a inadimplência.
O mercado brasileiro já absorveu essa realidade de forma maciça. Para se ter uma ideia do tamanho desse ecossistema:
Nesse cenário altamente competitivo, a IA deixou de ser um mero diferencial tecnológico; ela se tornou o próprio coração da operação financeira. O desafio agora não é mais como construir esses modelos, mas sim como garantir que eles não entrem em conflito com a lupa atenta do BACEN.

A expressão “caixa-preta” designa modelos cujos processos de tomada de decisão são opacos, mesmo para seus criadores. Um modelo com centenas de árvores e milhares de nós, ou uma rede neural com múltiplas camadas ocultas, não produz, por si só, uma explicação humanamente inteligível para cada decisão individual que toma.
Essa opacidade gera pelo menos três ordens de problemas jurídicos:
Um estudo publicado pelo Banco Central do Brasil em 2023 (Relatório de Estabilidade Financeira) identificou que o uso de modelos de crédito baseados em IA sem adequada documentação e governança constitui um dos principais vetores de risco operacional emergente no sistema financeiro nacional.
Muitos operadores de meios de pagamento, gateways, subadquirentes, plataformas de antecipação de recebíveis e correspondentes bancários, realizam análises de risco de seus estabelecimentos comerciais ou de consumidores finais sem se enquadrarem formalmente na categoria de “concessores de crédito”. Contudo, na medida em que tais análises influenciam decisões financeiras (habilitação de lojistas, limites de transação, antecipação de recebíveis), o regulador brasileiro tem expandido sua interpretação de quais entidades estão sujeitas às exigências de governança de modelos.
A tendência regulatória global, e o BACEN acompanha de perto os desenvolvimentos do Financial Stability Board (FSB), do Comitê de Basileia e da União Europeia (AI Act), é de que toda decisão automatizada com impacto financeiro relevante deve ser explicável, auditável e sujeita a controles de qualidade continuados.
Ao contrário do que se poderia supor, o Brasil não carece de regulação aplicável à IA no setor financeiro. O que muitas vezes falta é a percepção das instituições de que normas já existentes, algumas anteriores ao boom da IA generativa, se aplicam diretamente aos seus modelos algorítmicos.
Embora primariamente focada em ESG, a Resolução BCB nº 85/2021 estabelece que as instituições autorizadas devem considerar, em suas políticas de crédito e concessão, os impactos sociais de suas decisões. Modelos de IA que sistematicamente excluem grupos populacionais vulneráveis, mesmo que não intencionalmente, podem ser questionados sob esta norma.
Esta resolução, que substitui a Resolução CMN nº 2.682/1999, modernizou as regras de Provisão para Créditos de Liquidação Duvidosa (PCLD) e adotou a abordagem de perdas esperadas (Expected Credit Loss — ECL), alinhada ao IFRS 9. Seu artigo 22 determina que os modelos internos de risco de crédito devem ser:
Estas exigências se aplicam a qualquer modelo quantitativo de avaliação de risco de crédito, o que inclui inequivocamente os modelos de machine learning.
A estrutura de gerenciamento de riscos exigida pelo BACEN contempla, dentre outros, o risco de modelo, definido como a possibilidade de que decisões tomadas com base em modelos quantitativos produzam resultados adversos em razão de erros de especificação, implementação ou uso inadequado do modelo.
O risco de modelo é um conceito que se aplica com especial força aos algoritmos de IA, dado que:
O Comunicado BACEN nº 31.379/2018 sinalizou pela primeira vez a preocupação regulatória com o uso de inteligência artificial e big data no sistema financeiro, indicando que o BACEN passaria a desenvolver estudos e eventualmente normas específicas sobre o tema.
A Agenda BC, é a estratégia do Banco Central para o período 2019-2022 e suas versões subsequentes, consolidou os pilares de Inclusão, Competitividade, Transparência, Educação e Sustentabilidade como vetores regulatórios. A aplicação desses pilares ao uso de IA implica, entre outras coisas, garantir que modelos algorítmicos não criem barreiras artificiais de acesso ao crédito.
A Lei nº 13.709/2018 (LGPD) introduziu, em seu artigo 20, o direito do titular de dados a solicitar revisão de decisões automatizadas que afetem seus interesses, incluindo, expressamente, decisões relativas a seu perfil de crédito. Este dispositivo tem implicação direta para qualquer instituição que utilize algoritmos de score:
| Exigência da LGPD (Art. 20) | Implicação Prática para Modelos de IA |
| Direito à revisão de decisão automatizada | A instituição deve manter processo de contestação e análise humana |
| Direito à explicação sobre critérios e procedimentos | Os modelos devem ser documentados e seus critérios devem ser comunicáveis |
| Direito a informações claras sobre o tratamento | A política de privacidade deve detalhar o uso de IA nas decisões de crédito |
| Proibição de decisões baseadas em dado sensível sem consentimento | Variáveis proxy que indiquem etnia, religião ou saúde são vedadas |
| Necessidade de base legal adequada | Interesse legítimo ou execução de contrato são as bases mais comuns — devem ser documentadas |
O BACEN publicou, em 2023, o Relatório de Avaliação de Impacto Regulatório sobre IA no Sistema Financeiro, sinalizando a intenção de editar regulação específica sobre uso responsável de inteligência artificial. Os principais elementos esperados para essa norma, com base nas consultas públicas realizadas e nos documentos de trabalho do BCB, incluem:
As instituições que aguardarem a edição da norma específica de IA para iniciar sua adequação estarão em desvantagem significativa. O BACEN já avalia, nas inspeções in loco e nas solicitações de informação, a qualidade da governança de modelos das instituições autorizadas. A regulação futura tende a formalizar e tornar exigível o que os supervisores já esperam encontrar.
Explainable AI (XAI) é o conjunto de técnicas, métodos e práticas que permitem a seres humanos compreender e avaliar os fatores que influenciaram uma decisão tomada por um sistema de inteligência artificial. No contexto do crédito, XAI significa a capacidade de responder, de forma auditável:
Para o BACEN, a explicabilidade interessa por razões que vão além da transparência individual: ela é o mecanismo pelo qual a autoridade supervisora pode verificar a solidez dos modelos, identificar vieses sistêmicos e avaliar se as decisões automatizadas são compatíveis com as políticas de crédito declaradas pela instituição.
O mercado e os reguladores financeiros ao redor do mundo têm convergido em torno de um conjunto de técnicas de explicabilidade que, quando corretamente implementadas, atendem às exigências de transparência:
SHAP (SHapley Additive exPlanations)
Baseado na teoria dos jogos cooperativos, o SHAP calcula a contribuição marginal de cada variável para a decisão final do modelo. É atualmente a técnica mais aceita pelo mercado financeiro global e por reguladores como o Federal Reserve (EUA) e o Prudential Regulation Authority (Reino Unido). Permite explicações individuais (por decisão) e globais (comportamento geral do modelo).
LIME (Local Interpretable Model-agnostic Explanations)
O LIME cria um modelo local simples e interpretável (como uma regressão linear) que aproxima o comportamento do modelo complexo na vizinhança de um ponto de dados específico. É útil para explicações pontuais, mas exige cuidado em sua interpretação, pois as explicações são localmente válidas e podem não refletir o comportamento global do modelo.
Modelos Inerentemente Interpretáveis
Para situações de alto risco ou onde a regulação exige explicabilidade robusta, pode ser preferível adotar modelos inerentemente interpretáveis, como regressão logística, árvores de decisão rasas ou scorecard linear, em detrimento de modelos de maior complexidade preditiva. A regulação não proíbe o uso de modelos complexos, mas implica que a instituição deve ter meios de explicar suas decisões.
Análise de Importância de Variáveis e Partial Dependence Plots
Técnicas de interpretabilidade global, como a importância de variáveis por permutação e os Partial Dependence Plots (PDPs), permitem compreender como cada variável do modelo se relaciona com o output em termos médios. São úteis para documentação e para demonstrar ao supervisor o funcionamento geral do modelo.
A NDM Advogados recomenda que as instituições adotem uma abordagem em camadas para a explicabilidade: (i) uma explicação global do modelo para fins de documentação e auditoria; (ii) explicações individuais por decisão, utilizáveis no atendimento ao consumidor; e (iii) um processo formal de contestação que garanta revisão humana quando solicitada.

A Resolução CMN nº 4.949/2021 e o Regulamento Anexo à Resolução BCB nº 96/2021, que dispõem sobre o Serviço de Atendimento ao Consumidor (SAC) no âmbito do Sistema Financeiro Nacional, exigem que as instituições prestem informações claras e completas aos consumidores sobre as razões de decisões que os afetem.
No contexto de modelos de score automatizados, esta exigência se desdobra na obrigação de:
A incapacidade de cumprir estas exigências — derivada, muitas vezes, da opacidade do modelo — configura violação à regulação de relacionamento com o consumidor e pode ensejar punições do BACEN, multas e a obrigação de adequação.
A expressão “governança de modelos” (model governance) designa o conjunto de políticas, processos, controles e responsabilidades que uma instituição estabelece para garantir que seus modelos quantitativos sejam desenvolvidos, validados, implementados, monitorados e descontinuados de forma controlada e documentada.
I — Inventário e Registro de Modelos
Toda instituição autorizada deve manter um inventário atualizado de todos os modelos de IA em uso, incluindo sua finalidade, arquitetura, dados de treinamento, versão vigente, responsável pelo desenvolvimento e data de última validação. Este inventário é o ponto de partida de qualquer inspeção supervisória.
II — Documentação Técnica e Funcional
Cada modelo deve possuir documentação que descreva: (a) o problema de negócio que resolve; (b) as variáveis de entrada e sua justificativa; (c) o algoritmo e suas configurações (hiperparâmetros); (d) as métricas de performance e os thresholds de aprovação; (e) as limitações conhecidas e os casos em que o modelo não deve ser utilizado; (f) o histórico de versões e alterações.
III — Validação Independente
O BACEN exige que a validação dos modelos seja realizada por área ou equipe independente daquela responsável pelo desenvolvimento — o chamado “four-eyes principle”. A validação deve abranger: testes de performance out-of-sample, avaliação de estabilidade ao longo do tempo, análise de vieses e impacto diferenciado por grupos, e verificação da aderência às políticas de crédito.
IV — Monitoramento Contínuo e Backtesting
Modelos de crédito degradam com o tempo. Mudanças no comportamento econômico, na composição da clientela ou nas políticas de concessão podem tornar um modelo anteriormente acurado em um gerador de decisões inadequadas. O BACEN espera que as instituições monitorem continuamente as métricas de performance de seus modelos (Gini, KS, AUC-ROC) e realizem backtesting regular para comparar as previsões do modelo com os resultados reais.
V — Processo de Gestão de Ciclo de Vida
Modelos devem ter um ciclo de vida gerenciado: desde a concepção, passando pelo desenvolvimento e validação, pela implementação em produção, pelo monitoramento e revisão periódica, até a eventual descontinuação e substituição. Cada fase deve ser documentada e aprovada por alçada adequada.
O Banco Central do Brasil possui amplo poder sancionatório sobre as instituições autorizadas. A Lei Complementar nº 179/2021 e a Lei nº 13.506/2017 autorizam o BACEN a aplicar, entre outras penalidades:
As infrações relacionadas à governança inadequada de modelos de IA podem ser enquadradas em múltiplos dispositivos normativos simultaneamente, potencializando o risco sancionatório.
A decisão automatizada de crédito que cause dano ao consumidor, seja pela recusa injustificada, pela imposição de condições mais onerosas em razão de variáveis ilegítimas, ou pela impossibilidade de obter explicação e contestação, pode ensejar responsabilidade civil da instituição. O Código de Defesa do Consumidor estabelece responsabilidade objetiva do fornecedor de serviços, prescindindo da demonstração de culpa.
A configuração de dano moral em razão de recusa de crédito baseada em critérios discriminatórios ou em modelos sem adequada governança é uma tendência reconhecida na jurisprudência do Superior Tribunal de Justiça (STJ) e dos Tribunais de Justiça estaduais.
Além dos riscos jurídicos diretos, a exposição de falhas em modelos de IA, seja por investigação supervisória, por ação judicial coletiva ou por cobertura midiática, pode gerar danos reputacionais significativos. No ambiente altamente competitivo das fintechs e meios de pagamento, a reputação de conformidade regulatória é ativo estratégico relevante, especialmente para instituições que dependem de parcerias com bancos tradicionais ou que buscam novas autorizações.
A tendência regulatória global, seguida pelo BACEN, é de responsabilizar individualmente os administradores e diretores responsáveis pela área de modelos, risco e compliance em casos de falhas sistêmicas de governança. A nomeação de um Diretor de Conformidade (Chief Compliance Officer) e a formalização de sua responsabilidade sobre a governança de modelos é medida de higiene regulatória essencial.
A seguir, apresentamos um checklist orientativo, não exaustivo, das medidas que as instituições autorizadas devem adotar para alinhar seus modelos de score de crédito baseados em IA às exigências regulatórias do BACEN e ao arcabouço legal vigente.
| IMPORTANTE: PARTICULARIDADES POR TIPO DE INSTITUIÇÃO |
| Fintechs de Crédito (SCD/SEP): Sujeitas à regulação prudencial completa do BACEN — o checklist acima se aplica integralmente. |
| Instituições de Pagamento (IPs): Sujeitas às regras de governança e relacionamento com consumidor; a aplicação ao score de risco de lojistas/usuários varia conforme o modelo de negócio. |
| Subadquirentes e Gateways: Em geral não são autorizados pelo BACEN, mas podem ser afetados por obrigações contratuais com adquirentes e bandeiras, além da LGPD. |
| Correspondentes Bancários: Devem observar as regras da instituição financeira contratante quanto à análise de crédito. |

O Regulamento (UE) 2024/1689, o AI Act europeu, em vigor desde agosto de 2024, classifica os sistemas de IA utilizados para avaliação da solvabilidade de pessoas físicas e para pontuação de crédito como sistemas de “alto risco”, sujeitos às exigências mais rigorosas da regulação, incluindo:
Embora o AI Act não se aplique diretamente ao Brasil, instituições brasileiras que operam ou pretendem operar em mercados europeus, ou que são subsidiárias de grupos europeus, devem observar esse marco regulatório. Além disso, o AI Act tende a influenciar diretamente a regulação brasileira de IA, o Projeto de Lei nº 2.338/2023 (Marco Legal de IA) em tramitação no Senado Federal foi amplamente inspirado no modelo europeu.
O Projeto de Lei nº 2.338/2023, aprovado pelo Senado e em tramitação na Câmara dos Deputados (com perspectiva de promulgação em 2025), estabelece o Marco Legal de IA no Brasil. Seus dispositivos de maior relevância para o setor financeiro incluem:
Uma vez aprovado e em vigor, o Marco Legal de IA criará uma camada adicional de exigências que se sobreporá, e em alguns casos irá além,das exigências setoriais do BACEN. As instituições que já tiverem investido em adequação estarão em posição de conformidade privilegiada.
O conceito de Fair Lending, crédito justo e não discriminatório, tem ganhado força nos Estados Unidos (através do Equal Credit Opportunity Act e do Fair Housing Act) e na União Europeia. O BACEN, comprometido com a agenda de inclusão financeira, tem sinalizado que a avaliação de equidade dos modelos de crédito será progressivamente incorporada ao escopo das inspeções supervisórias.
Instituições que demonstrarem proativamente que seus modelos promovem inclusão financeira, e não simplesmente reproduzem exclusões históricas, terão vantagem competitiva e regulatória relevante.
A inteligência artificial transformou, e continuará transformando, o setor financeiro brasileiro de forma profunda e irreversível. A velocidade, a escala e a sofisticação que os modelos algorítmicos proporcionam são vantagens competitivas reais, que nenhuma instituição pode se dar ao luxo de ignorar.
Contudo, a adoção de IA sem o correspondente investimento em governança, explicabilidade e adequação regulatória é uma estratégia de curto prazo que cria riscos jurídicos, operacionais e reputacionais de longo prazo. O BACEN já sinalizou, de forma inequívoca, que a qualidade da governança de modelos é critério central de avaliação das instituições autorizadas.
O momento de agir é agora, antes que a norma específica de IA chegue formalmente, antes que uma inspeção identifique as lacunas, antes que um processo administrativo ou uma ação civil coletiva force uma adequação dispendiosa e em condições desfavoráveis.
As instituições que encaram a conformidade regulatória em IA não como um custo, mas como um diferencial, de gestão, de reputação e de acesso a capital e parcerias, são as que estarão mais bem posicionadas no sistema financeiro brasileiro dos próximos anos.
A NDM Advogados é um escritório especializado em Direito Regulatório Financeiro e Tecnologia, com atuação focada no universo das fintechs, instituições de pagamento, meios de pagamento, gateways e demais entidades autorizadas ou supervisionadas pelo Banco Central do Brasil.
Nossa equipe combina expertise jurídica aprofundada com visão prática do mercado financeiro, o que nos permite oferecer soluções que não são apenas tecnicamente corretas, mas operacionalmente implementáveis.
Realizamos análise completa da situação atual de sua instituição em relação às exigências do BACEN, LGPD e legislação aplicável, identificando lacunas e priorizando ações de adequação por nível de risco.
Desenvolvemos políticas de governança de modelos de IA, frameworks de validação independente, processos de gestão de ciclo de vida e documentação regulatória, adaptados à realidade e ao porte de sua instituição.
Analisamos juridicamente os modelos de IA em uso, suas variáveis de entrada, bases de dados e processos decisórios, identificando riscos de viés discriminatório, violações à LGPD e exposições regulatórias.
Elaboramos RIPDs (Relatórios de Impacto à Proteção de Dados) para sistemas de IA, revisamos políticas de privacidade e contratos de dados, e assessoramos no atendimento de direitos dos titulares, incluindo o direito à explicação (art. 20 da LGPD).
Representamos instituições em processos administrativos, solicitações de informação, inspeções e diálogo regulatório com o Banco Central do Brasil, a ANPD e demais autoridades competentes.
Oferecemos treinamentos customizados para equipes de tecnologia, produto, compliance, jurídico e C-level sobre os temas de IA regulatória, proteção de dados e governança de modelos.
Para assessoria personalizada, entre em contato com nossos especialistas.
Por Jhenifer Messias
Advogada especialista em regulatório para Fintechs

Estamos prontos para ajudar sua startup a crescer. Agende uma consulta e saiba mais!
Estamos prontos para ajudar seu negócio a crescer. Agende uma consulta e saiba mais!