PROJETO DE LEI Nº (PL) 2338/2023 - Dispõe sobre o uso da Inteligência Artificial no Brasil - o que devemos temer, ou melhor, entender?


Por Lillian Menini (*)
Está tramitando no Senado Federal, o Projeto de Lei (PL) 2338/2023, sobre o uso da inteligência artificial, de autoria do Presidente do Congresso Nacional Senador Rodrigo Pacheco.
Logo em seu artigo primeiro, o PL define a necessidade do desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.
Ninguém discute que a IA deve ser implementada. O que se discute é a forma e os fundamentos para seu desenvolvimento. Quando o futuro deixar de ser incerto e as probabilidades serem cada vez mais assertivas, como se dará o progresso humano, cujas tecnologias foram descobertas, muitas vezes, através de experimentos ignorados, sem credibilidade?
Outra discussão presente é o fato de que a IA não aprende sozinha. As tecnologias necessitam de inputs humanos e é nesse momento que a legislação começa a ser necessária. A IA necessita de regras para ser construída, sendo um dos deveres fundamentais dos agentes de inteligência artificial[1] realizar avaliação preliminar de risco, divididos em: (i) risco excessivo; (ii) alto risco; e (iii) risco moderado/baixo.
Igualmente, as pessoas “afetadas” pela IA devem manter seus direitos primordiais, conforme garantidos no PL em seus artigos 5º a 12º; tais como, direito à informação prévia que está interagindo com uma IA e pode contestar sua decisão; direito à privacidade e à proteção de dados pessoais, nos termos da legislação pertinente; direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos.
O direito à não-discriminação e à correção de vieses discriminatórios toma dimensão primordial na construção de IA, pois, dados automatizados disponíveis no mundo, capazes de gerar tecnologias de IA, podem ser tendenciosos visto que economias mais pujantes possuem dados mais bem organizados e que não necessariamente refletem as necessidades ou desejos de todos os povos da humanidade. Mesmo no Brasil, não existe uma base de dados que possa gerar uma IA que se aplique rigorosamente para a população brasileira. Em nossos estudos, verificamos que cientistas de dados brasileiros usam bases de dados de big techs estrangeiras para seus ensaios. Ou seja, não basta ter dados organizados, eles têm que fazer sentido para aqueles que serão submetidos às decisões da IA, daí a necessidade da estruturação do uso dessas tecnologias.
A aposta do PL, assim como ocorreu na implementação de outras tecnologias na história, é utilizar a governança, conforme o grau de risco que a IA possa trazer. Outra medida jurídica aplicada pelo PL é a responsabilidade civil do fornecedor ou operador de sistema de inteligência artificial; na medida em que aquele que cause dano patrimonial, moral, individual ou coletivo é obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema. E aqui, o PL especifica que quando se tratar de sistema de inteligência artificial de alto risco ou de risco excessivo, o fornecedor ou operador respondem objetivamente pelos danos causados, na medida de sua participação no dano; e, nos demais casos de sistema de inteligência artificial, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.
O PL também sugere o desenvolvimento de associações e códigos de boas práticas do mercado; bem como a criação de uma autoridade competente para zelar pela implementação e fiscalização da IA no Brasil; que poderá aplicar as sanções administrativas previstas no artigo 36 do PL, desde advertência, multa, publicidade das infrações até a suspensão do desenvolvimento da atividade ou proibição de tratamento de determinadas bases de dados.
O mercado de seguros sempre foi um grande hub/eixo de utilização de dados para precificação do custo de apólices/coberturas de seguros. Assim, as tecnologias trazidas com a inteligência artificial têm um enorme potencial para agregar novos produtos ou melhorar o risco dos existentes, caminhando para um mercado mais assertivo e robusto.
A aposta é que a inteligência artificial permita que as seguradoras possam individualizar coberturas e deixar, inclusive, os custos de seguros mais baratos para aqueles que consigam comprovar suas individualidades. O que nos leva a outra pergunta: como compatibilizar essa possibilidade com o mutualismo? Pois até então, um dos pilares do seguro é a máxime “um por todos e todos por um”[2] Seguiremos acompanhando o desenrolar de mais esse capítulo do desenvolvimento da humanidade.
[1] PL 2338/2023 – Art. 4º (...) IV – agentes de inteligência artificial: fornecedores e operadores de sistemas de inteligência artificial; (...).
[2] Mutualismo - É um dos princípios básicos do seguro. Representa a contribuição de várias pessoas, expostas aos mesmos tipos de risco (massa de segurados), para a formação de um fundo comum, composto pela soma dos prêmios pagos à seguradora. Na ocorrência de um sinistro, será este fundo comum e mútuo que suportará as perdas. Na essência, todos os participantes contribuem com um valor relativamente baixo, em relação ao bem segurado, para que a pessoa que tenha o prejuízo naquele período receba a indenização. Conhecido com o princípio de "Um por todos e todos por um". Fonte: https://www.gov.br/susep/pt-br/conteudo-do-glossario/m-n/m/mutualismo acesso em 10.06.2024.
(*) Lillian Menini é Advogada, Mestre em Direito Político e Econômico (Mackenzie/SP), Pós-Graduada em Gestão de Negócios Bancários (FIA-FEA/USP) e em Direito Empresarial (PUC/SP), Pós-Graduanda em Gestão de Resseguro (ENS), exercendo o cargo de Superintendente Jurídica na Fairfax Brasil Seguros Corporativos S.A. (FF Seguros).
(12.07.2024)