PL 2338/2023: Um marco legal para a inteligência artificial no Brasil
05/06/2023

imagem arquivos/RegTechNews-06.png

Vista como uma das precursoras na regulação do tema, a União Europeia vem discutindo uma proposta legislativa relativa às implicações humanas e éticas com a implementação e uso de sistemas de inteligência artificial. Em 2020, a Comissão Europeia publicou o Livro Branco sobre inteligência artificial com o objetivo de definir opções políticas para promover a adoção da inteligência artificial, assim como para abordar os riscos associados ao desenvolvimento e difusão da referida tecnologia. Ainda em 2020, o Parlamento Europeu adotou um conjunto de resoluções relativas ao tema, notadamente em matéria de ética, responsabilidade e direitos autorais e, em 2021, na esfera penal e nos domínios da educação, cultura e do setor audiovisual.

Apresentada pela Comissão Europeia em 2021, o Regulamento da Inteligência Artificial, também chamado AI Act, considerou como objetivos específicos:
i) garantir que os sistemas de inteligência artificial sejam colocados no mercado europeu e utilizados de forma segura e em respeito aos direitos fundamentais e valores da União Europeia;
ii) garantir segurança jurídica para investimentos e inovações no domínio da inteligência artificial;
iii) melhorar a governança e aplicação da legislação em vigor em matéria de direitos fundamentais e dos requisitos de segurança aplicáveis à inteligência artificial e
 iv) facilitar o desenvolvimento de um mercado único para aplicações consideradas legítimas, seguras e de confiança.

Recentemente, em maio de 2023, a Comissão de Mercado Interno e Proteção dos Consumidores e a Comissão de Liberdades Cívicas, Justiça e Assuntos Internos aprovaram um relatório que inclui um conjunto de emendas relevantes ao texto do AI Act como, por exemplo, a proibição de sistemas de polícia preditiva e a adição de diversos elementos para a classificação de um sistema de inteligência artificial como de alto risco. Além disso, o relatório vem propor uma maior harmonização de seus preceitos e disposições com aspectos relacionados ao GDPR – General Data Protection Regulation.  

Enquanto o AI Act segue para votação em plenário do Parlamento Europeu, o que deve ocorrer em meados de junho de 2023, no Brasil foi apresentado pelo Presidente do Senado Federal, Rodrigo Pacheco (PSD-MG), em 3 de maio deste ano, um novo projeto de lei, o PL 2338/2023, com o objetivo de estabelecer um marco legal para a inteligência artificial no Brasil.

O PL 2338/2023, que deve substituir projetos anteriores de menor alcance e complexidade que estavam tramitando no Congresso Nacional, como os Projetos de Lei 5.051/2019, 21/2020 e 872/2021, teve como base um anteprojeto elaborado ao longo de 2022 por uma comissão de juristas, sob a liderança do ministro do Superior Tribunal de Justiça (STJ), Ricardo Villas Bôas Cuevas, o qual resultou de um extenso processo de estudos por parte dessa comissão e de inúmeros outros atores envolvidos, o que incluiu a realização de audiências públicas, contribuições escritas de especialistas na área, estudo das autoridades regulatórias de inteligência artificial nos países integrantes da OCDE e um seminário internacional.

O tema é de grande relevância no contexto global, tendo em vista as inúmeras aplicações e funcionalidades que podem ser abarcadas por ele, tanto nos meios digitais quanto físicos e analógicos, e as profundas transformações sociais e econômicas que decorrem de seu avanço e popularização, razão pela qual especialistas no campo, assim como juristas, legisladores, políticos e empresários de diversos países, como vimos acima, correm para discutir, elaborar e propor normas que regulamentem e garantam o uso seguro e ético dessa tecnologia. 

O modelo brasileiro proposto pelo PL 2338/2023 tem como objetivo estabelecer “normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico” [1].

Como indicado na Justificação do PL 2338/2023, o projeto teve como objetivo basilar promover direitos para proteção da pessoa natural diretamente impactada por sistemas de inteligência artificial, bem como dispor de ferramentas de governança e de arranjo institucional para a sua supervisão e fiscalização.

Abaixo, sumarizamos alguns pilares dessa proposta legislativa:

(i) Direitos das pessoas afetadas por sistemas de inteligência artificial.
O PL 2338/2023 inicia com os fundamentos básicos para o desenvolvimento, implementação e o uso da inteligência artificial e seus princípios norteadores. Assim como vimos na União Europeia, o Brasil acertadamente põe a pessoa humana e a sua dignidade no centro de sua regulação (“human-centric”). 

Dentre as preocupações primordiais estão a garantia do acesso apropriado à informação prévia quanto às interações humanas com sistemas de inteligência artificial, a compreensão adequada das decisões tomadas por esses sistemas, o direito de contestar decisões automatizadas, o direito à intervenção humana em decisões do sistema considerando o contexto e o estado da arte do desenvolvimento tecnológico e, ainda, o direito à não discriminação e à correção de vieses discriminatórios, ilegais ou abusivos dos sistemas.

(ii) Categorização de riscos.
O PL 2338/2023 prevê que os sistemas de inteligência artificial devem ter passado, antes de serem postos no mercado, por uma avaliação preliminar a ser conduzida pelo próprio fornecedor quanto ao grau de risco da aplicação, podendo essa avaliação de impacto algorítmico ser revista pela autoridade competente. 

Uma vez que o sistema foi considerado de risco excessivo, ficará vedada a sua implementação e uso em território nacional caso: empregue técnicas subliminares de forma a induzir as pessoas a adotarem comportamentos perigosos à saúde ou segurança; explore vulnerabilidades de grupos específicos de pessoas associados à idade ou condições físicas ou mentais de forma a induzir comportamentos prejudiciais; ou, ainda, tenha como objetivo avaliar, classificar ou ranquear pessoas naturais pelo poder público com base em comportamento social ou em atributos de personalidade para acesso a bens e serviços públicos, se aplicado de forma ilegítima ou desproporcional. Com destaque, no âmbito da segurança pública, os sistemas categorizados como de risco excessivo podem vir a ser utilizados se expressamente permitidos por lei federal específica e autorização judicial em caso de persecução penal individualizada.

Ainda, o projeto traz a categoria de sistemas de alto risco, entendidos como aqueles utilizados para finalidades de: segurança na gestão e no funcionamento de infraestruturas; educação e formação profissional; recrutamento, triagem e avaliação de candidatos e tomada de decisões sobre relações contratuais de trabalho; avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação de serviços privados e públicos que sejam considerados essenciais; avaliação da capacidade de endividamento das pessoas naturais ou estabelecimento de sua classificação de crédito; administração da justiça; aplicações na área da saúde destinadas a auxiliar diagnósticos e procedimentos médicos, assim como os sistemas de estabelecimento de prioridades para serviços de resposta a emergências; sistemas biométricos de identificação; investigação criminal e segurança pública; e gestão da migração e controle de fronteiras.

Em ambas as categorias, de risco excessivo ou de alto risco, ficará a cargo da autoridade competente atualizar a lista de sistemas de inteligência artificial, após consulta ao órgão regulador competente, se houver, bem como após a realização de consulta e audiências públicas e de análise de impacto regulatório.

(iii) Sistemas de Governança, Comunicação de Incidentes Graves e Responsabilidade Civil.
O projeto reserva dois capítulos à Governança de Sistemas de Inteligência Artificial e aos Códigos de Boas Práticas de Governança. Como medidas obrigatórias para sistemas de alto risco, a proposta prevê o estabelecimento de estruturas de governança e de processos internos que sejam aptos a garantir a segurança dos sistemas e os direitos das pessoas por eles impactadas. São medidas de transparência no emprego dos sistemas, gestão de dados para mitigação de vieses discriminatórios, de tratamento de dados pessoais aderente à legislação já vigente, adoção de parâmetros adequados para separação e organização de dados para treinamento, teste e validação de resultados do sistema e medidas de segurança da informação. 

Assim como a LGPD traz uma obrigação em seu texto para comunicação de incidentes graves, o PL 2338/2023 prevê uma comunicação pelos agentes à autoridade competente quando da ocorrência de incidentes de segurança, incluindo risco à vida e integridade física de pessoas, interrupção de funcionamento de infraestruturas críticas, danos à propriedade ou meio ambiente e graves violações aos direitos fundamentais. Um texto bastante amplo que deverá ainda ser objeto de regulamentação específica. 

Por fim, quanto ao tema da responsabilidade civil, quando da ocorrência de danos por sistemas de alto risco ou risco excessivo, o texto imputa ao fornecedor ou operador do sistema a responsabilidade objetiva pelos danos causados, na medida de sua participação. Ao passo que a responsabilidade será presumida, com inversão de ônus da prova em favor da vítima, em caso de sistemas não classificados como de alto risco ou risco excessivo. 

(iv) Supervisão e Fiscalização.
Ao dispor sobre a fiscalização da inteligência artificial, o PL 2338/2023 determina que a autoridade competente, órgão ou entidade da Administração Pública Federal zele pelo cumprimento das normas estabelecidas, além de especificar suas competências e fixar sanções administrativas.

No texto proposto, também como medida prevista para fomentar a inovação da inteligência artificial, a autoridade competente designada poderá autorizar o funcionamento de ambiente regulatório experimental para inovação em inteligência artificial (sandbox regulatório) para as entidades que o requererem e preencherem os requisitos especificados pela pretensa lei e em regulamentação específica aplicável.

Por fim, dentre as sanções administrativas aplicáveis aos agentes de inteligência artificial pelas infrações cometidas, o projeto elenca as hipóteses de punição com: advertência; publicização da infração após devidamente apurada e confirmada sua ocorrência; multa simples, limitada, no total, a R$ 50 milhões por infração para pessoas físicas e, no caso de pessoa jurídica de direito privado, de até 2% de seu faturamento, de seu grupo ou conglomerado no Brasil no último exercício, excluídos impostos; proibição ou restrição na participação de regime de sandbox regulatório por até 5 anos; suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA; e proibição de tratamento de terminadas bases de dados.

Ao buscar um marco legal para a inteligência artificial, o Brasil não apenas dá um passo importante na discussão e entendimento dos reflexos econômicos e sociais que essa tecnologia pode trazer para o país, como também na tentativa de regular o seu uso e aplicação, a fim de proteger os nossos direitos fundamentais e oferecer segurança jurídica para o desenvolvimento tecnológico desses sistemas e de suas diversas funcionalidades.

Em fase inicial do processo legislativo, o projeto de lei apresentado ao Plenário do Senado Federal em 3 de maio de 2023 aguarda despacho pela Secretaria Legislativa da Casa quanto aos próximos passos, que envolverá a distribuição a uma ou mais comissões permanentes para exame. 

Kamila Ribeiro Lima
Beatriz Lindoso
Cesar R. Carvalho

[1] cf. Art. 1º do Projeto de Lei 2338/2023, disponível em https://www25.senado.leg.br/web/atividade/materias/-/materia/157233