O ministro da Fazenda, Dario Durigan, defendeu nesta terça-feira (12) a implementação de um modelo de regulamentação para a inteligência artificial (IA) baseado em níveis de risco. A proposta visa criar regras flexíveis para acompanhar a rápida evolução tecnológica, buscando equilibrar proteção da sociedade e estímulo à inovação.
Durigan ressaltou que a inteligência artificial representa uma nova etapa na transformação digital global. Segundo o ministro, o objetivo é garantir que as regras de boa civilidade, já existentes na vida real, também sejam aplicadas de forma eficaz no ambiente digital. Essa abordagem busca evitar que a inovação tecnológica se desenvolva sem os devidos mecanismos de proteção e responsabilidade.
Brasil busca equilíbrio na regulação de inteligência artificial
O debate sobre o marco regulatório da inteligência artificial está em pauta no Congresso Nacional, envolvendo uma articulação intensa entre o governo e os parlamentares. O ministro Durigan informou que o relator do projeto na Câmara dos Deputados, Agnaldo Ribeiro (PP-PB), demonstrou receptividade ao modelo proposto pelo governo. A discussão legislativa é crucial para estabelecer um ambiente jurídico claro e seguro para o desenvolvimento e uso da IA no país.
A necessidade de uma legislação flexível é um ponto central na argumentação do governo. A velocidade das mudanças tecnológicas exige um modelo regulatório que possa se adaptar rapidamente, sem a necessidade de aprovar novas leis a cada avanço significativo da IA. Durigan, que antes de assumir o cargo no Ministério da Fazenda atuou em áreas de conformidade institucional do WhatsApp e da Meta, traz uma perspectiva informada sobre os desafios regulatórios no setor de tecnologia. Sua experiência anterior sublinha a complexidade de criar normas que sejam eficazes e duradouras em um campo tão dinâmico.
Matriz de risco: a chave para um marco legal adaptável
O principal pilar da proposta governamental, conforme detalhado por Durigan, é a criação de uma matriz de risco para classificar os distintos tipos de inteligência artificial. Essa matriz substituirá modelos legislativos rígidos por um sistema que avalia o potencial de impacto e periculosidade de cada aplicação tecnológica. A ideia é modular as exigências regulatórias conforme a criticidade da IA.
Para as tecnologias de IA consideradas mais sensíveis, as exigências serão naturalmente maiores. Isso inclui mecanismos rigorosos em áreas como:
– Transparência: Garantir que os algoritmos e seus funcionamentos sejam compreensíveis e auditáveis por especialistas e, quando aplicável, pelo público.
– Controle: Estabelecer mecanismos para que humanos possam intervir e supervisionar decisões tomadas por sistemas de IA, especialmente em contextos de alto impacto.
– Compliance: Assegurar que as aplicações de IA estejam em conformidade com as normas éticas e legais estabelecidas, prevenindo abusos e garantindo a responsabilidade.
Aplicações de IA de alto risco, como sistemas ligados à genética humana, reconhecimento de identidade e temas considerados sensíveis para direitos individuais, estarão sujeitas a esses mecanismos rigorosos de fiscalização e prestação de contas. Além disso, o governo pretende discutir limites éticos para o uso dessas tecnologias, com foco especial na proteção da privacidade e dos direitos fundamentais dos cidadãos.
Educação digital e proteção: pilares da nova abordagem
Em contrapartida, aplicações voltadas para jogos, entretenimento e funções lúdicas devem ser enquadradas em categorias de baixo risco. Nesses casos, a proposta é evitar o excesso de burocracia, a fim de não frear a inovação e o desenvolvimento tecnológico. O objetivo é claro: criar um ambiente regulatório que consiga equilibrar a proteção da sociedade com o estímulo à inovação, permitindo que o Brasil se posicione favoravelmente no cenário global da IA.
Durigan também destacou a alfabetização digital como um componente fundamental para a proteção da população no ambiente virtual. O governo considera essencial combinar a educação tecnológica com mecanismos regulatórios mais rígidos para prevenir abusos e proteger grupos vulneráveis. A analogia com a vida real foi utilizada para ilustrar essa necessidade: assim como a educação familiar e escolar auxilia na prevenção de golpes e crimes, a educação digital é vital, mas não substitui a evolução das regras para o ambiente digital.
Nesse contexto, o ministro mencionou a discussão sobre a implementação do Estatuto da Criança e do Adolescente (ECA) Digital no Brasil. A iniciativa visa adaptar os princípios de proteção de crianças e adolescentes ao ambiente online, reconhecendo os desafios específicos que a internet e as novas tecnologias, como a IA, impõem a esse grupo. A flexibilidade da legislação é crucial para que o país possa acompanhar a dinâmica da inteligência artificial, garantindo que os princípios gerais e os mecanismos adaptáveis possam evoluir em tempo real, sem que o Congresso precise aprovar uma nova lei a cada avanço tecnológico.
—
Perguntas Frequentes
O que propõe o governo brasileiro para a regulação da IA?
O governo brasileiro propõe um modelo de regulamentação da inteligência artificial (IA) baseado em níveis de risco das aplicações tecnológicas. A ideia é criar regras flexíveis que se adaptem à rápida evolução da IA, buscando um equilíbrio entre a proteção da sociedade e o estímulo à inovação tecnológica.
Quais são as aplicações de IA consideradas de alto risco?
Entre as aplicações classificadas como de alto risco, estão sistemas ligados à genética humana, reconhecimento de identidade e temas sensíveis para direitos individuais. Para essas tecnologias, são previstas exigências maiores de transparência, controle, compliance, fiscalização rigorosa e prestação de contas.
Por que a flexibilidade é importante na regulamentação da IA?
A flexibilidade é considerada crucial devido à velocidade das mudanças tecnológicas. Um modelo regulatório adaptável, com princípios gerais e mecanismos que possam evoluir em tempo real, permite que a legislação acompanhe os avanços da inteligência artificial sem se tornar rapidamente obsoleta, evitando a necessidade de novas leis a cada inovação.