PUBLICIDADE

Regulação da IA exige novo paradigma jurídico no Brasil e no mundo

11/05/2026
9 visualizações
5 min de leitura
Imagem principal do post

A inteligência artificial impôs aos governos um desafio regulatório inédito: criar normas para uma tecnologia que se transforma mais rápido do que a capacidade dos Estados de compreendê-la. O artigo publicado no Consultor Jurídico, assinado por Rafael Moreira de Aguiar, coordenador de Modernização Regulatória do Ministério do Desenvolvimento, Indústria, Comércio e Serviços, analisa como o debate sobre a regulação da IA tem sido mal conduzido e propõe caminhos para que Brasil e outros países enfrentem esse cenário com maior eficácia.

O autor argumenta que a discussão pública se prende a um falso dilema: regular ou não regular. Essa formulação, segundo ele, é equivocada porque o problema central não é a existência de regras, mas a incerteza sobre quais normas serão aplicadas e quando. A falta de previsibilidade, e não a regulação em si, é o que mais prejudica o desenvolvimento tecnológico e a inovação.

Imagem complementar

Estudos da Brookings Institution, centro de pesquisa americano, indicam que a incerteza regulatória reduz investimentos, especialmente em setores intensivos em tecnologia. A Organização para a Cooperação e o Desenvolvimento Econômico, conhecida como OCDE, também destaca que a previsibilidade e a qualidade regulatória são fatores determinantes para o ambiente de negócios e para a disseminação de inovação. Países com melhores indicadores de governança regulatória tendem a apresentar níveis mais elevados de produtividade e investimento.

PUBLICIDADE

A inteligência artificial agrava essa tensão porque opera em um ambiente de incerteza radical. Diferentemente de setores tradicionais, em que riscos são relativamente conhecidos e mensuráveis, os modelos de IA evoluem continuamente, suas aplicações são reconfiguradas em tempo real e os impactos frequentemente só se tornam visíveis após a implementação. Isso compromete a lógica clássica da análise de impacto regulatório, que pressupõe a capacidade de estimar custos e benefícios com precisão.

Na prática, reguladores são obrigados a trabalhar com indicadores aproximados, cenários incompletos e hipóteses frágeis. Para o autor, isso não constitui um problema em si, desde que a limitação seja reconhecida e declarada de forma transparente. O erro, segundo ele, está em simular uma certeza que não existe.

A União Europeia avançou com o AI Act, legislação que estrutura a regulação com base em níveis de risco, diferenciando obrigações conforme o potencial de impacto das aplicações. O texto europeu vai além da simples classificação e articula requisitos de transparência, governança de dados, supervisão humana e obrigações específicas para sistemas de alto risco. Incorpora também mecanismos de monitoramento contínuo e revisão, reconhecendo que o conhecimento sobre a tecnologia não é estático.

Apesar do avanço, o modelo europeu enfrenta críticas. Há preocupações com o excesso de complexidade regulatória, a capacidade de implementação uniforme entre os países membros e o potencial impacto sobre a competitividade de empresas inovadoras, especialmente startups. Mesmo as abordagens mais avançadas permanecem experimentais e sujeitas a ajustes.

Outras jurisdições exploram caminhos complementares. Reino Unido e Canadá apostam em modelos mais principiológicos e experimentais, combinando diretrizes gerais com ambientes controlados de teste, chamados de sandboxes regulatórios, e forte ênfase em aprendizado institucional. A lógica é simples: se não é possível prever com precisão, é necessário criar estruturas que permitam aprender e ajustar ao longo do tempo.

Essa mudança de paradigma não é apenas técnica, mas institucional. Regular em ambiente de incerteza exige capacidades que vão além da produção normativa. Exige dados, monitoramento, coordenação entre diferentes órgãos e uma cultura decisória que aceite o erro como parte do processo de aprendizagem. Isso contrasta com a tradição burocrática de buscar decisões definitivas baseadas em diagnósticos frequentemente incompletos.

No Brasil, o desafio é ainda maior. O Decreto nº 10.411, de 2020, institucionalizou a análise de impacto regulatório, representando um avanço na direção de uma regulação baseada em evidências. A aplicação prática desses instrumentos, entretanto, ainda enfrenta limitações relevantes, como a escassez de dados e a capacidade analítica desigual entre os órgãos governamentais.

Transpor experiências internacionais para o contexto brasileiro exige cautela. A simples importação de modelos regulatórios, sem adaptação institucional adequada, tende a gerar mais custos do que benefícios. O país convive com assimetrias relevantes de capacidade estatal e desafios históricos na implementação consistente de instrumentos de melhoria regulatória.

O autor propõe que a construção de uma agenda regulatória para inteligência artificial no Brasil priorize três eixos estratégicos. O primeiro é o fortalecimento da análise de impacto regulatório, com revisão do modelo atual para garantir maior ênfase no tratamento explícito da incerteza, incorporando análises de sensibilidade, cenários e revisões periódicas. O segundo é o desenvolvimento de mecanismos de experimentação regulatória, como sandboxes, que permitam testar soluções em ambiente controlado antes de sua adoção em escala.

O terceiro eixo, frequentemente negligenciado, é o de governança e coordenação institucional. A natureza transversal da inteligência artificial exige articulação entre diferentes órgãos e níveis de governo, evitando sobreposições, lacunas e sinais contraditórios ao mercado. Sem essa coordenação, o risco não é apenas de ineficiência, mas de ampliação da própria incerteza regulatória. O papel do governo federal como gestor nacional da política regulatória é considerado fundamental nesse ponto.

A qualidade da regulação, segundo o artigo, depende diretamente da capacidade estatal de implementá-la. Isso envolve recursos humanos qualificados, infraestrutura analítica e governança decisória adequada. Em um cenário de rápida transformação tecnológica, a capacidade de aprender e ajustar políticas ao longo do tempo pode ser mais relevante do que a precisão inicial das regras.

A inteligência artificial não exige menos regulação, mas melhor regulação, fundamentada em três elementos centrais: previsibilidade, para reduzir a incerteza e orientar decisões de investimento; adaptabilidade, para ajustar normas à medida que o conhecimento evolui; e capacidade institucional, para transformar regras em prática regulatória efetiva. Sem esses elementos, o debate continuará girando em torno de um falso dilema enquanto o verdadeiro problema permanece sem solução.

Para o autor, a inteligência artificial representa o teste definitivo da maturidade da política regulatória brasileira. E, como todo teste, não deve se restringir à avaliação do conhecimento acumulado, mas também, e principalmente, da capacidade de adaptação diante de um cenário que se transforma de forma imprevisível e exponencial.

PUBLICIDADE

Leitura recomendada

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!