Marco Legal da Inteligência Artificial: o que vai mudar caso seja aprovado

João Ortega

Por João Ortega

10 de março de 2020 às 16:48 - Atualizado há 3 meses

Logo ReStartSe

GRATUITO, 100% ONLINE E AO VIVO

Inscreva-se para o Maior Programa de Capacitação GRATUITO para empresários, gestores, empreendedores e profissionais que desejam reduzir os impactos da Crise em 2020

Legisladores brasileiros querem garantir que o desenvolvimento da inteligência artificial (IA) no país seja centrado no ser humano, aumente a produtividade em geral, contribua para uma economia mais sustentável e promova a redução da desigualdade social e regional. Um projeto de Marco Legal da Inteligência Artificial, proposto pelo deputado Eduardo Bismarck (PDT-SP), está em trâmite na Câmara dos Deputados desde fevereiro com foco nestas diretrizes.

O texto completo do Projeto de Lei 21/2020 apresenta, no entanto, poucas medidas concretas em relação ao número de diretrizes intangíveis. Segundo Juliano Maranhão, professor de Direito na Universidade de São Paulo e presidente do Lawgorithm, grupo de estudos em IA, a falta de “detalhamento de regras específicas” no texto pode trazer, no futuro, impasses para a justiça.

“O judiciário pode passar a fazer imposições a partir de interpretações próprias e fragmentadas desses princípios. Isso pode trazer insegurança jurídica, limitando o desenvolvimento da tecnologia no Brasil”, avalia o advogado especialista em IA. “Embora o projeto avance em relação aos anteriores propostos pelo Senado, a tônica em enunciar princípios ainda predomina”.

A tecnologia já está transformando o setor jurídico: participe da Lawtech Conference, o maior evento sobre inovação para advogados da América Latina!

Veja, a seguir, a análise sobre os principais pontos da proposta do Marco Legal de Inteligência Artificial.

Agente de IA

O Projeto de Lei define os agentes de inteligência artificial como “pessoas físicas ou jurídicas” em dois grupos possíveis: agentes de desenvolvimento e agentes de operação. Os primeiros são aqueles envolvidos no planejamento, design, coleta e processamento de dados, construção, verificação e validação do modelo. Já o segundo grupo consiste nos profissionais responsáveis pelo “monitoramento e operação do sistema de inteligência artificial”.

Caso o Marco Legal seja aprovado em todas as etapas, as pessoas designadas como agentes de IA terão responsabilidades perante a lei sobre as ações do algoritmo. Além disso, eles precisarão preparar um relatório com “a descrição do ciclo de vida do sistema de inteligência artificial, bem como medidas, salvaguardas e mecanismos de gerenciamento e mitigação dos riscos relacionados a cada fase do sistema, incluindo segurança e privacidade”.

Para Juliano Maranhão, há aspectos positivos e negativos neste ponto do Marco Legal. Por um lado, ele destaca que alocar o risco a desenvolvedores e operadores pode inibir a inovação nos sistemas. Por outro lado, o especialista elogia a obrigatoriedade de elaborar um relatório que preveja os impactos dos algoritmos de inteligência artificial.

Lei Geral de Proteção de Dados

Todo algoritmo de inteligência artificial precisa ser alimentado com uma grande quantidade de dados para que, de fato, possa fazer análises preditivas de maneira eficiente. Neste sentido, o Marco Legal da Inteligência Artificial está diretamente relacionado à Lei Geral de Proteção de Dados (LGPD), que já foi aprovada e entra em vigor a partir do segundo semestre deste ano.

O Projeto de Lei afirma que todas as pessoas envolvidas no sistema de IA – o que inclui desenvolvedores, operadores, usuários e todo indivíduo cujo dado foi coletado – têm direito a acesso a “informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados pelo sistema de inteligência artificial que lhes afetem adversamente”, bem como a “informações claras e completas sobre o uso, pelos sistemas, de seus dados sensíveis”. Ambas as diretrizes estão em conformidade com o que define a LGPD.

De acordo com Juliano Maranhão, esta é uma questão delicada do Marco Legal, porque a inteligência artificial, na sua visão, tem como conceito básico tornar imprevisível quais dados são sensíveis ou não e qual será a finalidade deles. “Registros de voz podem se tornar dados sensíveis de saúde se a IA encontrar correlação entre tom de voz e distúrbios psíquicos”, exemplifica o professor da USP.

Assim, o especialista identifica um tom muito genérico no Projeto de Lei, já que não define de forma clara quais são os dados sensíveis. O texto fica restrito ao afirmar apenas que observa “normas previstas na Lei Geral de Proteção de Dados que se aplicam ao tratamento de dados, ainda que utilizados em sistemas de IA”.

Discussão com a comunidade

Ao final do texto, o deputado Eduardo Bismarck diz que “é importante que o projeto de lei receba opiniões de diversos setores da sociedade e do poder público. Da mesma forma, a lei aprovada deve se destinar a evoluir junto com as rápidas mudanças na economia digital. Regulações impostas ao setor devem ser precedidas de amplo debate público, envolvendo, especialmente, o setor empresarial, especialistas e a sociedade civil”.

Este é mais um ponto essencial do Marco Legal que tampouco é definido de forma concreta. Não há, por exemplo, a obrigatoriedade de formação de um grupo multidisciplinar de todos os setores envolvidos para discutir, com recorrência, novas medidas para garantir o uso saudável da tecnologia.

Na visão de Juliano Maranhão, a Europa é uma referência a ser seguida neste sentido. “Os países líderes em IA têm sido cautelosos em impor regras sobre a tecnologia, pois há o risco de limitar a inovação”, diz. “O que se tem observado é a publicação de relatórios por entidades governamentais, estabelecendo diretrizes não vinculantes ou abrindo discussões com a formação de grupos de experts, como o AI-HLEG (High Level Expert Group on Artificial Intelligence) na Comunidade Européia”.

O advogado usa como exemplo o Ministério dos Transportes da Alemanha, que desenvolveu um relatório sobre a ética no desenvolvimento de algoritmos para veículos autônomos. “Essa abordagem setorial, com parâmetros éticos específicos para determinado tipo de aplicação me parece mais apropriado, pois sua implementação é mais factível e clara”, conclui.