PL da Inteligência Artificial cria fratura no ordenamento jurídico brasileiro

0
Comentários
0
likes
0
Coment.
0
likes

Neste artigo, Anderson Schreiber traz reflexões jurídicas importantes sobre erros e acertos do PL da Inteligência Artificial; confira!

Inteligência Artificial: o futuro já chegou

Foi noticiado recentemente que a Tesla, famosa pelo desenvolvimento de carros semiautônomos, atingiu US$ 1 trilhão de valor de mercado, após o anúncio de uma ampla encomenda de seus carros elétricos, que contam com sistema de piloto automático, pela locadora de veículos Hertz.[1]

A própria Tesla anunciou, há poucos meses, o desenvolvimento de um robô humanoide: o Tesla Bot, apelidado de Optimus. O robô realizará tarefas básicas repetitivas e assumirá trabalhos considerados perigosos ou demasiadamente maçantes para seres humanos. O Optimus terá 1,73 m de altura e 57 kg, contará com várias câmeras para análise do ambiente e disporá, ainda, de “mãos humanas” com cinco dedos, movimentadas por 40 atuadores eletromecânicos. Elon Musk, CEO da Tesla, garantiu, em tom espirituoso, que o robô será “amigável”, construído de forma que, em qualquer circunstância, “você possa fugir dele e desligá-lo”, situação que Musk afirmou esperar que “nunca aconteça, mas nunca se sabe”.[2]

Para decepção dos mais aficionados fãs de ficção científica, o robô Optimus está, por ora, apenas no papel. A Inteligência Artificial, contudo, já é uma realidade cada vez mais inserida em nosso dia a dia. É o que se constata na proliferação de sistemas de reconhecimento facial presentes em aparelhos de telefonia celular, assistentes virtuais (como Alexa, Siri e Cortana) e algoritmos empregados em redes sociais e serviços de streaming, apenas para ficar em alguns poucos exemplos.

Inteligência Artificial: promessas e desafios

A Inteligência Artificial ganha relevância também em usos menos triviais, como em sistemas que auxiliam no rastreio e diagnóstico precoce de câncer ou outras lesões,[3] na prevenção de queimadas,[4] ou, ainda, na economia de milhares de horas de trabalho que diferentes categorias de profissionais empregariam em tarefas mais padronizadas e repetitivas.[5]

Tão inquestionáveis quanto os numerosos benefícios advindos do uso da Inteligência Artificial são os riscos que ela suscita. O famoso sistema de direção assistida em automóveis, por exemplo, tem sido alvo de polêmicas após a ocorrência de acidentes, ainda sob investigação das autoridades nos Estados Unidos.[6]

Também têm sido divulgados casos que associam o uso de Inteligência Artificial à prática de racismo[7] e discriminação de gênero.[8] E há, ainda, notícias do emprego de mecanismos de Inteligência Artificial para usos bastantes questionáveis, como a seleção de funcionários para fins de demissão, com base em recomendação derivada de algoritmo que, ao medir a eficiência no trabalho, classifica os funcionários como “improdutivos” ou “pouco comprometidos” com os objetivos da empresa.[9]

Os desafios suscitados pela Inteligência Artificial não encontram respostas prontas em nosso ordenamento jurídico. Aqui, como ocorre em outros setores da interação entre Direito e Tecnologia, verifica-se que o jurista, carente de normas específicas, costuma oscilar entre duas atitudes antagônicas e igualmente arriscadas:

(a) ignorar as peculiaridades do fenômeno novo, defendendo a incidência de categorias jurídicas pensadas em contextos e para situações absolutamente diversas, o que enseja resultados frequentemente inadequados; e

(b) construir soluções novas, mas absolutamente casuísticas, muitas vezes em verdadeiro “copiar e colar” de institutos estrangeiros, rompendo com a unidade e a coerência indispensáveis ao nosso sistema jurídico. Isso pode até produzir respostas atraentes à primeira vista, mas que não se sustentam a médio prazo e acabam gerando novos problemas ou contribuindo para uma sensação generalizada de insegurança jurídica.

PL da Inteligência Artificial

Ambos os equívocos podem ser identificados no Projeto de Lei 21-A/2020 (PL da Inteligência Artificial), que pretende criar o chamado Marco Legal da Inteligência Artificial, estabelecendo “fundamentos, princípios e diretrizes para o desenvolvimento e aplicação da inteligência artificial no Brasil”.

Composto por apenas dez artigos, o texto entrou neste ano em um inusitado regime de urgência e acabou aprovado pela Câmara dos Deputados no último dia 29 de setembro de 2021. A complexidade inerente ao tema da Inteligência Artificial já sugere que uma aprovação em regime de urgência neste campo se afigura, no mínimo, precipitada.

Para ficar em apenas algumas comparações recentes, o Marco Civil da Internet (Lei 12.695/2014) foi intensamente discutido ao longo de mais de cinco anos no Congresso Nacional, e a LGPD (Lei 13.709/2018), fruto de anos de debates, acabou tendo sua entrada em vigor sucessivamente adiada.

Naturalmente, a PL da Inteligência Artificial, tema ainda cercado de tantas incertezas, exigiria um trâmite mais cauteloso, que contemplasse um verdadeiro e efetivo diálogo do legislador com a sociedade civil e com os especialistas na matéria, o que contribuiria para a construção de um diploma normativo mais técnico e sofisticado, que, longe de mera declaração de princípios, representasse um parâmetro normativo realmente útil à solução das controvérsias que começam a surgir em relação ao tema.

Debates jurídicos sobre a PL da Inteligência Artificial

Diante da aprovação na Câmara, parte da comunidade jurídica reagiu, apelando ao Senado Federal contra uma passagem especialmente estarrecedora do Projeto de Lei 21-A/2020: a parte inicial do inciso VI do seu artigo 6º, que prevê que as “normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva”.[10][11]

Para começar, o dispositivo proposto é de difícil compreensão: em vez de instituir um regime de responsabilidade civil subjetiva, como parece ter sido a intenção dos elaboradores do projeto, o preceito determina que normas (futuras?) devem “se pautar” (adotar?) na responsabilidade subjetiva, e isso “salvo disposição legal em contrário” (nas próprias normas futuras?). Estaríamos, então, diante não de uma norma imediatamente aplicável, mas de uma inusitada recomendação do legislador presente ao legislador futuro, recomendação que, conforme registra expressamente o dispositivo, pode ser contrariada por “disposição legal em contrário” (o que, de resto, sempre pode ocorrer).

A falta de clareza do inciso VI do artigo 6º do Projeto de Lei 21-A/2020 já seria suficiente para recomendar a sua rejeição, mas este aspecto não exprime o problema mais sensível trazido pela proposta normativa. O dispositivo parece ignorar todo o processo de evolução da disciplina da responsabilidade civil em nosso país, em que o Código Civil optou expressamente por afastar a responsabilidade subjetiva em relação aos danos causados por atividades de risco (Código Civil, art. 927, parágrafo único).

Some-se a isso a firme preferência do ordenamento jurídico brasileiro pela responsabilidade objetiva no campo dos acidentes de consumo (Código de Defesa do Consumidor, arts. 12 a 14) e, também, no campo do tratamento de dados pessoais – que, não obstante a ausência de explícito posicionamento da LGPD neste particular (o que se lamenta), seguiu nitidamente, ao menos em seu artigo 44, o modelo da legislação consumerista.[12]

Diante disso, parece certo que o Projeto de Marco Legal da Inteligência Artificial, ao recomendar em seu artigo 6º, VI, a adoção de responsabilidade civil subjetiva em relação aos “agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial”, cria uma fratura no ordenamento brasileiro, trilhando caminho casuístico que se distancia da unidade e da coerência esperada de qualquer sistema jurídico. Soa, ademais, inconsistente com o próprio texto do Projeto de Lei, que alude todo o tempo aos “riscos concretos” trazidos pela Inteligência Artificial (art. 6º, III) e à necessidade de sua comparação com “os riscos apresentados por sistemas similares que não envolvam inteligência artificial” (art. 6º, III, alínea b).[13]

Além disso, sob o prisma substancial, parece evidente que, consistindo a Inteligência Artificial em inovação ainda tão recente e de funcionamento tão sofisticado, exigir da vítima dos danos que demonstre a culpa do agente equivaleria, em larga medida, a obstar a reparação, instituindo autêntica probatio diabolica. No presente cenário, salta aos olhos a hipossuficiência técnica do usuário médio frente aos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de Inteligência Artificial, fator que advoga fortemente pela adoção do regime de responsabilidade civil objetiva na maior parte das situações em que se vislumbra atualmente aplicações da Inteligência Artificial (e.g., carros autônomos).[14]

E, aqui, vem à tona um aspecto que merece reflexão desapressada: o que se designa, hoje, sob o rótulo único da Inteligência Artificial corresponde, na verdade, a um conjunto relativamente amplo de tecnologias, que se prestam aos mais diferentes usos na realidade social e econômica.[15] Cada uma destas aplicações da Inteligência Artificial é dotada de peculiaridades e especificidades que podem e devem se refletir sobre a construção de um modelo normativo ideal de responsabilização por danos.

Nesse contexto, a criação de um regime único de responsabilidade civil pode acabar por resultar em uma generalização indevida. Seria, mal comparando, como criar um regime único de responsabilidade civil para todos os usos da Medicina. Bem ao contrário, nosso sistema jurídico oferece, nesta matéria, uma ampla variedade de regimes de responsabilidade civil que variam conforme circunstâncias específicas (fornecedores de serviços vs. profissionais liberais; obrigações de meio vs. obrigações de resultado; e assim por diante).

Inserir um posicionamento definitivo sobre o regime de responsabilidade civil em um Projeto de Lei que traz, na imensa maioria de seus dispositivos, meras declarações de princípios constitui medida açodada, animada talvez pela angústia de solucionar com brevidade uma questão que é, a um só tempo, fascinante e assustadora.[16] Todavia, propostas legislativas destinadas a gerar impacto crescente sobre a vida de todos os brasileiros exigem amadurecimento e, sobretudo, um debate amplo, plural e democrático.

Considerações sobre o PL da Inteligência Artificial

Em suma, o Projeto de Lei 21-A/2020 tem o imenso mérito de abrir a discussão sobre um tema candente que assume maior dimensão prática a cada dia. Seria lamentável se o esforço que seguramente foi empregado nesta iniciativa se perdesse na necessidade irreal de uma aprovação rápida e urgente, oferecendo à sociedade, de bate-pronto, um conjunto de normas que, em sua atual redação, parece mais preocupado em consagrar uma “intervenção subsidiária” do legislador, que se limite a “desenvolver regras específicas para os usos de sistemas de inteligência artificial apenas quando absolutamente necessário para a garantia do disposto na legislação vigente” (art. 6º, inciso I), do que em trazer instrumental concreto para a solução das controvérsias jurídicas que a Inteligência Artificial já suscita hoje e que já se pode vislumbrar serão suscitadas nos próximos anos.

Ao ímpeto legislativo de anunciar a aprovação de uma nova lei, que se ocupe de tema atualíssimo, contrapõe-se sempre o genuíno interesse da comunidade jurídica e da sociedade como um todo de receber, como resultado da atuação de seus representantes no Congresso Nacional, uma lei que apresente soluções úteis e efetivas. A introdução de novas normas jurídicas não é, a rigor, necessária para abrir as portas da nossa realidade à Inteligência Artificial – que, de resto, já vem sendo aplicada entre nós –, mas se mostra, ao revés, imprescindível para prevenir danos e cuidar adequadamente dos riscos que são inerentes à sua implementação, com vistas especialmente à proteção dos mais vulneráveis.

Este é o norte imposto pela ordem constitucional brasileira e, ao contrário do que ocorre com os robôs humanoides, não foi instituído para que “você possa fugir dele e desligá-lo”. Urge atrair para tão relevante debate as nossas melhores inteligências, a fim de produzir, com o perdão do trocadilho, um resultado que não se revele artificial.

Veja aqui os livros do autor!

LEIA TAMBÉM


NOTAS

[1] Tesla bate US$ 1 tri de valor após enorme encomenda de carros elétricos, disponível em www.invest.exame.com, 25.10.2021.

[2] ‘Robô humanoide’ da Tesla é anunciado por Elon Musk; veja como funciona, disponível em www.g1.globo.com, 20.8.2021.

[3] Empresa brasileira cria inteligência artificial para auxiliar mamografias, disponível em www.uol.com.br, 21.10.2021.

[4] Inteligência artificial prevê queimadas com 85% de acerto, disponível em www.summitagro.estadao.com.br, 8.10.2021.

[5] Inteligência artificial economiza 50 mil horas de advogados de bancos, disponível em www.exame.com, 26.10.2021.

[6] Autonomous car makers must report crashes to federal government, disponível em www.fortune.com, 29.6.2021.

[7] A título meramente exemplificativo, destaca-se: IA projetada para dar conselhos éticos se mostra um bot racista e preconceituoso, disponível em www.canaltech.com.br, 27.10.2021; e Instagram pode mudar algoritmo da rede social após relatos de racismo, disponível em www.exame.com, 17.6.2021.

[8] Amazon scraps secret AI recruiting tool that showed bias against women, disponível em www.reuters.com, 10.10.2018.

[9] 150 demissões em um segundo: os algoritmos que decidem quem deve ser mandado embora, disponível em www.brasil.elpais.com, 10.10.2021.

[10] Projeto de Lei 20/2021: “Art. 6º Ao disciplinar a aplicação de inteligência artificial, o poder público deve observar as seguintes diretrizes: (…) VI – responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado”.

[11] Carta Aberta ao Senado Federal, em que se afirma que o referido dispositivo “contraria entendimento que vem sendo construído pela doutrina jurídica, estudos e propostas nacionais e internacionais a respeito da matéria, colocando em sério risco a possibilidade das vítimas de danos causados por Inteligências Artificiais obterem a devida reparação integral e, por consequência, comprometendo a garantia dos direitos fundamentais previstos pelos incisos V e X do artigo 5º da Constituição da República”. A íntegra está disponível em: https://twitter.com/ddoneda/status/1453417000412368896. Registre-se, para permitir a devida avaliação crítica do leitor, que o colunista é um dos signatários da referida carta.

[12] Seja consentido remeter a Anderson Schreiber, Responsabilidade Civil na Lei Geral de Proteção de Dados Pessoais, in Danilo Doneda, Ingo Sarlet, Laura Schertel Mendes e Otavio Luiz Rodrigues Junior (coords.), Tratado de Proteção de Dados Pessoais, Rio de Janeiro: Forense, 2021, pp. 319-338.

[13] Ver, ainda, o artigo 8º do Projeto de Lei, que impõe “monitorar a gestão do risco dos sistemas de inteligência artificial, no caso concreto, avaliando os riscos da aplicação e as medidas de mitigação”.

[14] Sobre o tema, recomendo vivamente a leitura de Filipe Medon, Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade, Salvador: JusPodivm, 2020. Fruto de valorosa dissertação de Mestrado defendida no âmbito do Programa de Pós-graduação da UERJ, a obra examina, em detalhe, as relações entre Inteligência Artificial e Responsabilidade Civil.

[15] O próprio artigo 2º do Projeto de Lei 21-A/2020 assim dispõe: “Art. 2º Para os fins desta Lei, considera-se sistema de inteligência artificial o sistema baseado em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, pode, por meio do processamento de dados e informações, aprender a perceber, interpretar e interagir com o ambiente externo, fazendo predições, recomendações, classificações ou decisões, e que utiliza técnicas como os seguintes exemplos, sem a eles se limitar: I – sistemas de aprendizagem de máquina (machine learning), incluindo aprendizagem supervisionada, não supervisionada e por reforço; II – sistemas baseados em conhecimento ou em lógica; III – abordagens estatísticas, inferência bayesiana, métodos de pesquisa e otimização.”

[16] Daí por que a carta anteriormente mencionada propõe a seguinte redação substitutiva para o artigo 6º, inciso VI, do Projeto de Lei 21-A/2020: “Art. 6º. (…) VI – responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, levar em consideração a tipologia da inteligência artificial, o risco gerado e seu grau de autonomia em relação ao ser humano, além da natureza dos agentes envolvidos, a fim de se determinar, em concreto, o regime de responsabilidade civil aplicável”.

LEIA TAMBÉM
COMENTE

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.