Sou Aluno
Formações
Imersões
Eventos
Tools
Artigos
Sobre Nós
Para Empresas

Senado muda texto do Marco Legal da IA; veja o que muda

Substitutivo vai englobar os outros nove projetos que tramitavam no Senado sobre o tema, e propõe incentivos para startups. Entenda!

Senado muda texto do Marco Legal da IA; veja o que muda

Senado muda texto do Marco Legal da IA; votação é adiada

, conteúdo exclusivo

9 min

18 jun 2024

Atualizado: 19 jun 2024

newsletter

Start Seu dia:
A Newsletter do AGORA!

A Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado apresentou nesta terça-feira (18) um substitutivo ao projeto de lei (PL) 2.338/2023, que regulamenta o uso da inteligência artificial no Brasil. Também conhecido como Marco Legal da IA, o texto original é de autoria do senador Rodrigo Pacheco (PSD-MG) e tramitava em conjunto com outros nove projetos que estabelecem um arcabouço legal para o desenvolvimento e uso da IA no país. Segundo o senador Eduardo Gomes (PL-TO), relator da comissão, esses projetos serão agora concentrados no substitutivo, que passará por uma nova análise dos senadores.

Com isso, a votação do Marco Legal da IA, que originalmente estava prevista para esta terça-feira, foi adiada, e irá ocorrer após cinco audiências públicas sobre o tema na comissão. Os projetos de lei incorporados ao substitutivo são o PL 21/2020, PL 5.051/2019, PL 5.691/2019, PL 872/2021, PL 3.592/2023, PL 145/2024, PL 146/2024, PL 210/2024 e PL 266/2024.

Entre as mudanças, o novo texto propõe a criação de um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) e designa a Autoridade Nacional de Proteção de Dados (ANPD) como autoridade competente para coordenar o SIA. Além disso, incorpora novas regras de proteção ao trabalho e aos trabalhadores para mitigar os efeitos negativos da IA.

O substitutivo também revisou a listagem de sistemas de alto risco, reduzindo os sistemas de identificação biométrica considerados de risco elevado. E estabelece medidas de incentivo a microempresas, empresas de pequeno porte e startups, que estarão sujeitas a critérios diferenciados, como acesso prioritário aos ambientes de testagem.

"Nesse sentido, esse substitutivo foi impactado pelos avanços da discussão no Reino Unido (análise de impacto regulatório do Ministério da Ciência e Tecnologia) e pela Executive Order do Estados Unidos acerca da matéria. Ambas privilegiam um ecossistema regulatório que tem por finalidade precípua promover e garantir a cooperação entre as autoridades setoriais, mas com algum ponto de coordenação para evitar assimetrias que distorçam a livre iniciativas e a livre concorrência", aponta o parecer do relator.

O senador Eduardo Gomes ressaltou ainda que os canais de diálogo foram mantidos "permanentemente abertos para a construção coletiva dessa regulação".

Do que trata o projeto

O PL 2.338/2023 vai na direção da regulamentação criada pela União Europeia e, em linhas gerais, cria normas para o desenvolvimento, implementação e uso responsável de sistemas de IA no país, estabelecendo graus de risco para esses sistemas.

"Esse é um PL principiológico, que tem como principal vetor a análise de risco dos sistemas de IA, o que está alinhado com a diretriz europeia. Ou seja, a depender do risco possível no uso daquele sistema, ou a tecnologia não poderá ser usada, ou poderá ser usada desde que os desenvolvedores adotem medidas de controle", explica Fabio Kujawski, sócio de Tecnologia do Mattos Filho.

A entidade pública responsável por supervisionar as empresas no desenvolvimento e aplicação dessas tecnologias ainda não foi definida. Órgãos como a Agência Nacional de Telecomunicações (Anatel) e o Conselho Administrativo de Defesa Econômica (Cade) já manifestaram interesse em abraçar essa função. Além do controle da IA, a autoridade competente também terá o papel de regulamentar os sistemas de risco excessivo e de alto risco, e aplicar as sanções administrativas em caso de descumprimento das normas.

De acordo com o texto, essas sanções podem ser desde uma advertência até multa de 2% sobre o faturamento da empresa, limitada a R$ 50 milhões. Ou, ainda, suspensão do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial.

"Em geral, o projeto está alinhado com a Europa. Tem algumas situações em que talvez a gente tenha sido mais rigoroso. Alguns riscos excessivos a mais, altos riscos a mais. E algumas obrigações talvez um pouco maiores do que a gente vê na Europa, mas nada completamente divergente. As sanções foram bem inspiradas na LGPD", avalia Fabio.

Assim como aconteceu com a Lei Geral de Proteção de Dados (LGPD), a regulamentação dos sistemas de IA no Brasil vai exigir que as empresas tenham equipes dedicadas a garantir que as normas estejam sendo cumpridas. Segundo o projeto, é preciso que haja supervisão humana em todos os ciclos de desenvolvimento e uso dessas tecnologias. Além disso, as empresas terão a obrigação de notificar a autoridade competente sobre incidentes de segurança relacionados a esses sistemas.

"A lei exige uma necessidade constante de monitoramento da assertividade dessas tecnologias, e para tudo isso tem que ter processo. Para todos os riscos, a empresa terá que ter uma forma de mitiga-los. É claro que isso encarece o negócio, mas por outro lado dá mais segurança", pondera o sócio de Tecnologia do Mattos Filho.

Graus de risco

Risco excessivo - Sistemas de IA que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir o indivíduo a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança. O grupo inclui ainda os sistemas que exploram vulnerabilidades de grupos sociais para usá-las contra essas pessoas, além do uso da IA pelo poder público, para avaliar, classificar ou ranquear as pessoas, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional. O uso de sistemas classificados com esse grau de risco é vedado.

Alto risco - São considerados sistemas de inteligência artificial de alto risco aqueles utilizados para aplicação em serviços básicos de uma forma geral. Por exemplo, como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, como controle de trânsito e redes de abastecimento de água e de eletricidade; no âmbito judicial e em investigações criminais; no envio ou estabelecimento de prioridades para serviços de resposta a emergências, incluindo bombeiros e assistência médica; entre outros. Além disso, esse grau de risco inclui o uso de IA na educação, no acesso ao crédito, em carros autônomos, e processos seletivos de empresas.

Gostou deste conteúdo? Deixa que a gente te avisa quando surgirem assuntos relacionados!


Assuntos relacionados

Imagem de perfil do redator

O mais conceituado portal sobre startups do Brasil. Veja mais em www.startups.com.br.

Leia o próximo artigo

newsletter

Start Seu dia:
A Newsletter do AGORA!