PUBLICIDADE

Governo brasileiro defende regulação da inteligência artificial baseada em níveis de risco

um sistema que avalie o potencial de impacto e periculosidade de cada aplicação
Reprodução Agência Brasil

O debate sobre o futuro da tecnologia no Brasil ganhou um novo capítulo com a defesa de um modelo regulatório flexível para a inteligência artificial (IA). O ministro da Fazenda, Dario Durigan, apresentou as diretrizes que o governo federal pretende adotar para lidar com o avanço acelerado dessas ferramentas. A estratégia central não é criar leis estáticas, mas sim um sistema dinâmico que se adapte às transformações digitais sem sufocar a inovação econômica.

inteligência: cenário e impactos

Em entrevista recente, Durigan destacou que a intenção é transpor as regras de convivência e ética do mundo físico para o ambiente virtual. Para o Ministério da Fazenda, a IA não é apenas uma ferramenta técnica, mas um motor de transformação global que exige um olhar atento do Estado, especialmente no que diz respeito à proteção de dados e aos direitos individuais dos cidadãos brasileiros.

A matriz de risco como bússola regulatória

O pilar fundamental da proposta governamental é a implementação de uma matriz de risco. Em vez de aplicar uma regra única para todas as tecnologias, o governo sugere classificar as aplicações de IA de acordo com o impacto que podem causar na sociedade. Esse modelo busca equilibrar a necessidade de supervisão estatal com a liberdade necessária para que empresas de tecnologia continuem desenvolvendo soluções criativas.

Na prática, isso significa que ferramentas de IA voltadas para o entretenimento, como jogos eletrônicos e filtros de redes sociais, seriam enquadradas em categorias de baixo risco. Nesses casos, a regulação seria mínima, evitando que o excesso de burocracia impeça o crescimento de um setor que gera empregos e movimenta a economia criativa. O objetivo é garantir que o Brasil não fique para trás na corrida tecnológica global por causa de entraves legislativos desnecessários.

Rigor e transparência em áreas sensíveis

Por outro lado, o governo defende um controle muito mais rigoroso para o que classifica como IA sensível. Aplicações que envolvem genética humana, sistemas de reconhecimento facial para segurança pública e algoritmos que decidem sobre direitos fundamentais serão submetidos a critérios estritos de compliance e transparência. Para essas tecnologias, a proposta exige mecanismos claros de prestação de contas e fiscalização constante.

De acordo com Durigan, áreas que tocam na privacidade e na identidade do indivíduo não podem ficar desassistidas de uma moldura legal sólida. A ideia é que, quanto maior o potencial de dano ou de viés discriminatório de uma ferramenta, maior deve ser a exigência de auditoria e controle por parte dos órgãos reguladores. Esse debate está alinhado com discussões internacionais, como o projeto de lei 2338/2023, que tramita no Senado Federal.

Articulação política e o papel do Congresso

A viabilização desse marco regulatório depende de um consenso no Congresso Nacional. O governo tem trabalhado em estreita colaboração com parlamentares para garantir que o texto final reflita essa necessidade de flexibilidade. O deputado Agnaldo Ribeiro (PP-PB), relator da matéria na Câmara, tem se mostrado favorável ao modelo de matriz de risco, o que sinaliza uma convergência entre o Executivo e o Legislativo.

A preocupação dos formuladores de políticas públicas é evitar o que chamam de “obsolescência legislativa”. Em um campo onde novas descobertas surgem semanalmente, uma lei rígida poderia se tornar inútil em poucos meses. Por isso, a defesa de princípios gerais que permitam agências reguladoras atuarem de forma técnica e pontual conforme a tecnologia evolui.

Educação digital e proteção de vulneráveis

Além das regras para empresas e desenvolvedores, o governo enfatiza a importância da alfabetização digital da população. Durigan argumenta que a regulação sozinha não é capaz de impedir crimes virtuais ou abusos se o cidadão não estiver preparado para navegar nesse novo ecossistema. A comparação feita pelo ministro é direta: assim como na vida real existem orientações familiares e escolares, o ambiente digital precisa de uma base educativa sólida.

Nesse contexto, surge a discussão sobre o chamado ECA Digital, uma adaptação do Estatuto da Criança e do Adolescente para o mundo conectado. A intenção é criar camadas extras de proteção para grupos vulneráveis, garantindo que o desenvolvimento tecnológico não ocorra às custas da integridade mental e social dos jovens brasileiros. A trajetória de Durigan, que já atuou em áreas de conformidade institucional em gigantes como a Meta e o WhatsApp, traz uma perspectiva técnica sobre como as plataformas operam internamente.

O avanço dessa pauta é essencial para que o Brasil estabeleça um ambiente de negócios seguro e ético. Acompanhe as próximas atualizações sobre tecnologia, economia e legislação aqui no M1 Metrópole, onde trazemos a análise profunda dos fatos que moldam o futuro do país com credibilidade e compromisso com a informação de qualidade.

Leia mais

PUBLICIDADE