Discricionariedade algorítmica e o teste de Turing jurídico

Discricionariedade algorítmica e o teste de Turing jurídico

0
Comentários
0
likes
0
Coment.
0
likes
Discricionariedade algorítmica e o teste de Turing jurídico

Apesar de soar hollywoodiano, já se cogita, seriamente, a criação de algoritmos[1] de Inteligência Artificial com função decisória[2]. Em tempos de processo judicial eletrônico e de recrudescimento da utilização generalizada de tecnologias no campo do Direito[3], tal algoritmo tornar-se-ia importante ferramenta a triunfar sobre as altas taxas de congestionamento da defectiva atividade jurisdicional.

A Inteligência Artificial, ao menos em uma de suas propostas, opera com outputs que aspiram feição humana, isto é, o produto do processo matemático (algorítmico) se pretende indiscernível do produto do processo cognitivo humano. Surge, então, a noção de teste de Turing, que corresponde exatamente à possibilidade de uma máquina imitar o comportamento humano.

Transplantado ao âmbito do Direito, o teste de Turing transforma-se em teste de Turing jurídico, surgindo a indiscernibilidade de autoria da decisão[4] confeccionada por um juiz robô. Em suma, um “operador do Direito”[5], ao ler a sentença fornecida pelo juiz robô, consideraria ter sido redigida por um juiz humano.

Neste pequeno texto, redigido por um homem – posso garantir e espero que acreditem em mim – pretende-se apontar a insuficiência do teste de Turing jurídico como critério de aceitação de qualquer decisão judicial, na medida em que se antevê a possível existência de discricionariedade algorítmica. Em simples palavras, bastaria aparentar ter sido redigida por um juiz humano e a sentença do juiz-robô seria aceitável.

Tendo sido colocado o problema nos termos anteriores, o seu núcleo é refinado a partir de um ponto nevrálgico, que se refere à noção de discricionariedade decisória, temática que demandará breves considerações sobre o positivismo jurídico.

Teste de Turing e teste de Turing jurídico

Há, induvidosamente, variadas possibilidades de aproveitamento das tecnologias no âmbito do direito. Isso já foi registrado em anterior nota de rodapé. Uma prefiguração bastante razoável consistiria na criação e plena implementação de um algoritmo de Inteligência Artificial capaz de promover todas as movimentações procedimentais de feição não-decisória (atos ordinatórios), acarretando considerável redução no tempo de exercício da função jurisdicional, já que se reconhece os impactos perniciosos das denominadas etapas mortas do processo.

Entretanto, a anuência quanto ao uso de Inteligência Artificial no âmbito processual, repita-se, circunscrever-se-ia às atividades não-decisórias, isto é, àquelas em que a demanda é de natureza tipicamente operacional ou, se preferir, “braçal”. Em princípio, parece claro que os juristas e juízes não estão dispostos a serem substituídos por algoritmos, pois o cérebro humano se apresenta como intercambiável. Na Grécia Antiga, aliás, fazia-se uma analogia entre o corpo humano e a estrutura do Estado, dividido em três classes[6]. Cabeça, tronco e baixo-ventre. A alma, imortal, situava-se na cabeça. Também na “cabeça” do Estado, os filósofos governantes[7]. Para quem sabe ler, pingo é letra. Os trabalhos braçais serão substituídos com maior facilidade[8].

Antes de prosseguir, é necessário retroceder e entender algumas noções básicas sobre Inteligência Artificial.

Como informa Howard Gardner, reuniram-se, no verão de 1956, em Dartmouth College, dez jovens especialistas em matemática e lógica. O objetivo era discutir a possibilidade de um computador se comportar ou pensar de forma inteligente[9]. Com o evento, a temática da Inteligência Artificial ganha vida própria.  É verdade que, um pouco antes, isto é, no ano de 1950, Alan Turing publicara um artigo em que discutia a possibilidade de um computador pensar. A indagação invocava uma dificuldade evidente, afinal, o que exatamente constitui o ato de pensar? Qual a forma de demonstrar que uma máquina realmente pensa como um ser humano? Turing propôs, então, um jogo, denominado por ele mesmo como “o jogo da imitação”. Nele, participam três pessoas: um homem (a), uma mulher (b) e um examinador (c). O examinador permanece num quarto separado dos outros dois. O desafio (jogo) do examinador consiste em descobrir qual das duas pessoas é homem ou mulher. Por sua vez, o jogo do homem (a) corresponde à tentativa de enganar o entrevistador, assim, fazer com que aquele pense estar entrevistando uma mulher. As respostas são fornecidas por um mecanismo que torne o respondente oculto[10]. Prosseguindo – e aqui o cerne do jogo – Turing sugere que um computador tome o lugar do homem (a) no jogo. O computador precisa, então, responder às perguntas e se passar por um humano, fornecendo respostas de modo natural, como se humano fosse.

Surge, assim, o que se convencionou chamar de teste de Turing,[11] que nada mais é do que a possibilidade de uma máquina se comportar como um humano. A dificuldade é evidente, na medida em que para bem imitar um homem – a ponto de persuadir os outros, passando-se por um de nós – a máquina deve adotar itinerários complexos[12] que envolvem uma série de aspectos. A aprovação no teste de Turing exige, por certo, a capacidade de a máquina manifestar sensibilidade e sentimentos, ou seja, apresentar uma forma de pensar típica de um homem, seu criador[13].

Agora, dois aspectos a serem considerados. De um lado, afirma Yuval Noah Harari: “a ideia de que os humanos sempre terão uma aptidão exclusiva, além do alcance de algoritmos não conscientes, é uma quimera”[14]. Lado outro, concluiu Pedro Domingos, ao tratar do monstro da complexidade: “quando os algoritmos ficam complicados demais para nossos pobres cérebros humanos entenderem, quando as interações entre as diferentes partes do algoritmo se dão em número muito grande e são muito complexas, erros começam a surgir, não conseguimos encontra-los e corrigi-los e o algoritmo não faz o que queremos”[15]. A junção dos dois trechos sugere a inevitabilidade da plena implementação de algoritmos de Inteligência Artificial, quiçá uma distopia social em que o homem se curvará às atrozes máquinas[16].

Apresentadas as rápidas noções sobre a IA – permitam-me a intimidade de doravante chamá-la assim – há que se compreender o seu aproveitamento na função decisória. Noutras palavras, poderia um algoritmo de IA decidir um caso submetido à apreciação do judiciário? Para tanto, o foco de análise será a tese de doutoramento do professor Rômulo Soares Valentini[17], pois nela é possível identificar a intrincada relação entre a discricionariedade algorítmica e a busca por uma decisão correta.

No introito do último capítulo da referida tese, o professor Valentini afirma que a diferença do trabalho por ele produzido diz respeito à possibilidade “real e factível de utilização da inteligência coletiva (rede) formada pela base de dados de todas as sentenças e decisões proferidas pelo poder judiciário brasileiro para, a partir deste modelo, programar um sistema apto para automatização a prolação de decisões judiciais, em diversos níveis”[18].

E, um pouco adiante, o simpático professor registra: “ante o exposto no presente trabalho, constata-se que não há como se garantir que um algoritmo encontrará a única decisão correta para o caso avaliado, em uma perspectiva hermenêutica. Mas é muito provável que o algoritmo seja capaz de formular uma decisão tecnicamente válida e aceitável para o caso analisado, uma vez que o texto (output) será apresentado após consulta exaustiva em uma base de dados que conterá milhares de decisões análogas proferidas por julgadores humanos”[19].

Para deixar a proposta mais límpida e intuitiva: o advogado digitaria poucas informações – input – com a indicação mínima da pretensão de direito material (ex.: acidente de trânsito, inclusão indevida nos órgãos de restrição de crédito etc), datas, nomes e tudo o mais – e então uma petição inicial seria fornecida pelo sistema de IA em instantes. Talvez nem seja necessário digitar, bastaria acionar a Siri ou algo que o valha[20] e relatar o caso. Talvez a Siri venha a participar das consultas jurídicas com o cliente do decrépito advogado.

No que diz respeito à função decisória, a IA seria assim utilizada: o juiz-robô apresentaria uma espécie de minuta de sentença, com base nos dados do processo eletrônico, a ser chancelada pelo juiz humano. Por se tratar de mera minuta de decisão, contrariando-se, o juiz humano poderia afastar aquela sugestão e decidir conforme a própria consciência[21]. Copiando o espirituoso professor Lenio Streck, “bingo!”

Os mais atentos e afeiçoados à teoria do direito, ao se depararem com as expressões “tecnicamente válida” e “aceitável”, vão facilmente perceber a presença de um ranço discricionário na aludida proposta. Mais do que isso, o importante seria passar no teste de Turing jurídico. É verdade que se trata de uma nova discricionariedade, mais sofisticada, sedutora, jurimétrica[22], contextualizada na civilização da técnica[23], o que poderia sugerir a inexistência de importância sobre a perquirição de uma decisão correta, na qual a função jurisdicional é sujeitada pelo processo e não o contrário. No entanto, por mais sedutor que seja o contexto, não há atrofia quanto à reflexão sobre a problemática da discricionariedade jurisdicional.

Passa-se, então, à questão da discricionariedade.

Positivismo e discricionariedade

A proclamada superação do positivismo jurídico se mostrou tão falha quanto a sentença nietzschiana sobre a morte de Deus[24]. Ao menos é o que se colhe da apresentação da belíssima obra “O positivismo jurídico no século XXI”. Nos dizeres dos professores Bruno Torrano e José Emílio Medauar Ommati: “e aí, quanto a esse ponto, claramente Dworkin errou o alvo, ao declarar a morte ou superação do positivismo jurídico. Como fica claro no presente volume, o positivismo jurídico está mais vivo do que nunca e pode contribuir e muito para o aprofundamento do debate jurídico”[25].

Não há espaço, aqui, para maior aprofundamento sobre o positivismo, ou melhor, sobre as teorias positivistas. Indicar-se-á, então, apenas alguns contornos do positivismo jurídico, cujo embrião é encontrado ainda no século XII (Hugo de Saint-Victor, Thierry de Chartres). Apesar do gérmen arcaico, somente no séc. XVII, com Hobbes, são criadas as bases teóricas do positivismo, tornando-se o inglês, segundo alguns, o mais importante precursor do positivismo. Na sequência, as Constituições escritas e os grandes Códigos fornecem o material de trabalho ao positivismo jurídico, fortalecido, claro, por correntes teóricas como a Escola da Exegese e a Jurisprudência dos Conceitos.

O núcleo (esqueleto) do positivismo jurídico situa-se, segundo Dworkin, em três pilares: I) é um conjunto de regras; II) o conjunto dessas regras é coextensivo com “o direito” e, em caso de lacunas, o juiz, por ser autoridade pública, pode decidir com discricionariedade; III) inexistindo regra jurídica, o juiz, ao decidir um caso difícil, cria normas jurídicas[26]. É preciso dizer, há diversas características não compartilhadas sobre o positivismo jurídico, dentre elas: a) o positivismo entende o direito enquanto sistema de normas respaldadas pela força (coatividade); b) compreende as normas jurídicas como imperativos; c) prega a supremacia da lei sobre as demais fontes do direito, com a consequente redução da importância das outras fontes; d) prega a completude e coerência do ordenamento jurídico; e) defende uma atividade lógica e mecânica por parte do cientista jurídico. Um núcleo comum mínimo entre positivistas seria a negação da existência do direito natural[27], sendo observável também a defesa de inexistência de relação necessária entre direito e moral, eis que, quando ocorre tal relação, é meramente contingencial[28].

A leitura de autores da envergadura de Kelsen e Hart nos faz compreender que a discricionariedade é um elemento nuclear do positivismo jurídico. A propósito, tal como concebido por seus defensores, o positivismo em muito se distancia daquela noção de direito “preto no branco” ou “rígido”, assim como (mal)retratado nos bancos de faculdade. Pasmem, mas o juiz, dentro de uma proposta positivista, interpreta do direito! Não apenas interpreta, o juiz decide discricionariamente, pois as regras deixam um espaço considerável para a discricionariedade dos juízes e outras autoridades, nos dizeres de MacCormick[29].

A discricionariedade decorre da imprecisão e da textura aberta das regras jurídicas. Em alguns casos, há uma penumbra de dúvida ou, se preferir, certas ambiguidades decorrentes da linguagem natural (ex: é preciso definir se uma prancha de skate pode ser considerada um veículo). Além disso, há imprecisão de certos conteúdos jurídicos, por exemplo, quando se invoca a razoabilidade como critério de decisão, o seu significado deve ser revelado. Fato é que, nos casos dito problemáticos, os juízes não somente verificam e aplicam as leis, eles a criam, portanto, os juízes atuam necessariamente com discricionariedade[30].

A discricionariedade, claro, é o embrião do decisionismo, talvez o seu irmão mais novo, o que, entretanto, não o torna inofensivo. Deve ser percebido, igualmente, que é a partir do acatamento dos elementos fundantes da discricionariedade judicial que se chega às propostas instrumentalistas, que consideram o processo uma ferramenta da jurisdição, cujo foco decisório se desloca inexplicavelmente aos atos de escolha do magistrado, numa hermética busca por escopos metajurídicos.

Em conclusão ao argumento desenvolvido até aqui, é a noção de discricionariedade a grande responsável por conferir à IA a possibilidade de fazer uma escolha ao decidir, já que a validade da decisão algorítmica dependeria da sua semelhança ao ato de decidir humano. Quanto a esse aspecto, caminhamos ao patíbulo. Isso porque, se é verdade que a IA, por sua colossal capacidade de processamento de dados, poderia promover uma melhoria formal (em extensão) no modo de decidir, evitando-se as decisões judiciais humanas do tipo “mantenho a decisão por seus próprios fundamentos”, por outro lado estaria a dita decisão imunizada por argumentum ad verecundiam, situação em que o ato de escolha decorrente da discricionariedade algorítmica estaria blindado por recurso à destreza de seu feitor.

Segundo a proposta de Valentini, noutras palavras, válida é a decisão que, além de respeitar as regras de sintática e semântica, evitando-se frases desconexas ainda vistas em apps vocacionados à tradução de idiomas, pareça minimamente aceitável, isto é, que decorra em alguma medida do ordenamento jurídico, em que normas retiram a sua validade de uma norma de escalação superior, sobressaindo a existência de uma margem de discricionariedade no ato de escolha da norma a ser criada.

Lado outro, quando se assume não haver garantia de a IA encontrar uma decisão correta em perspectiva hermenêutica[31], faz-se uma confissão de desprezo ao contraditório e às demais garantias processuais, prevalecendo como critério de validade da decisão matematizada o recurso ao produto da varredura de decisões anteriores, não ficando esclarecido o grau de importância dada pela máquina à argumentação desenvolvida pelos sujeitos processuais ao longo do processo.

É aí que peca a proposta, ao permitir ao algoritmo uma flexibilização decisória, isto é, parte-se do reconhecimento da existência de diversas respostas corretas/aceitáveis, reconhecendo-se a validade da decisão da máquina pela sua semelhança ao produto decisório humano. Sem meias palavras, se o critério de validade de uma decisão judicial for apenas o teste de Turing jurídico, a IA não trará grandes benefícios, afinal, o modo de decidir, por vezes, não é lá grandes coisas.

Entende-se que a criação de uma ferramenta de IA decisória, gestada por uma racionalidade instrumental, transita em diversos campos do conhecimento humano e gera inúmeras dificuldades, não bastando, para sua implementação, a mera capacidade de processamento de dados que gerarão uma decisão de roteiro imperscrutável, por isso mesmo distante do que se almeja num processo democrático.

Há que se reconhecer que o problema não se circunscreve às barreiras tecnológicas, por vezes solucionadas por premiações, como o prêmio Loebner. O problema vai muito além, é de teoria e filosofia do direito, de linguística e filosofia da linguagem, de hermenêutica da decisão judicial. Há, também, dificuldades práticas, como a indagação sobre a forma de utilização de um algoritmo de IA decisório em julgamentos colegiados, afinal, cada desembargador teria o seu próprio (privativo) sistema de IA? Ou seria o mesmo e, com isso, ter-se-ia um total desprezo com o princípio da colegialidade?

Feitas essas considerações brevíssimas, entende-se que não é possível aceitar uma decisão judicial como legítima – e, claro, a legitimidade (correção) vai muito além da validade – apenas por sua aparência jurígena. Embora deva funcionar inicialmente como mera ferramenta para aceleração na produção de atos decisórios, é possível que a interferência humana, com o tempo, se torne insignificante, praticamente irrelevante.

É provável que a substituição do homem por um algoritmo no processo decisório constitua um voo muito alto, ao menos por hora. A propósito, um dos argumentos de defesa quanto ao uso de IA diz respeito exatamente à possibilidade de uma máquina voar, pois o homem, apesar de não possuir asas ou os demais atributos aerodinâmicos necessários, à semelhança de um pássaro, consegue realizar a tarefa com considerável destreza, por meio de uma ferramenta, no caso, o avião. Este que, embora não possua asas, voa assim mesmo, alcançando a finalidade pretendida, isto é, o ato de voar. Não é necessária a rigorosa imitação da forma de voo da águia para alcançar aquela finalidade. Entretanto, ao que se sabe, uma águia, por exemplo, não depende de uma linguagem para voar. Muito menos uma linguagem argumentativa[32] ou intersubjetiva. A águia apenas voa, assim como o cavalo cavalga ou um lobo uiva. O ato decisório tem como premissa necessária o compartilhamento de argumentos desenvolvidos ao longo do processo, de forma que a atividade jurisdicional seja lapidada, moldada e integralmente fiscalizada pelo processo.

Como asseverado no início, a simples aprovação no teste de Turing jurídico – e obviamente não há qualquer indicação de como se daria tal teste, inexistindo, igualmente, critérios normativos – não é suficiente para a implementação de um algoritmo de IA que venha a substituir a atividade decisória humana, embora se reconheça que essa deve melhorar, e muito, tendo em vista a clara possibilidade de o algoritmo fazer uma escolha discricionária.

 

Conheça aqui as obras do autor!

 


[1] Um algoritmo é como uma receita de bolo, isto é, um conjunto de etapas para se chegar a determinado objetivo final. Para se evitar bobas analogias como esta, o tema será melhor desenvolvido adiante.

[2] Conferir: https://www.gazetadopovo.com.br/economia/inteligencia-artificial/juiz-com-inteligencia-artificial-software-consegue-julgar-de-modo-similar-a-humanos-0h68nf91ibfdcqhrfntflasuq/. E ainda: http://exameinformatica.sapo.pt/noticias/mercados/2019-04-01-Estonia-prepara-se-para-criar-um-juiz-robo

[3] A título exemplificativo: prática de atos processuais diversos por videoconferência (art. 236, § 3º; 385, § 3º dentre outros, todos do CPC/2015); contratos “inteligentes”; blockchain.

[4] Leia-se sentença ou decisão interlocutória ou acórdão.

[5] A expressão é de grandiosa pobreza vocabular, aproveitada aqui por pura ironia, pois sugere a prática de operações, isto é, cálculos matemáticos.

[6] Alma tripartite

[7] Conferir: BITTAR, Eduardo Carlos Bianca. Curso de filosofia do direito. 2. ed. São Paulo: Atlas, 2002, p. 88.

[8] Sobre a discussão, sugere-se a leitura dos capítulos 6 e 7 do livro “Artificial Intelligence: what everyone needs to know, de Jerry Kaplan, da Oxford University Press.

[9] GARDNER, Howard. La nueva ciencia de la mente: historia de la revolución cognitiva. Buenos Aires: Editorial Paidós, 1987, p. 158.

[10] Para facilitar, pense em respostas digitadas num papel ou terminal de computador. O importante é a ausência de contato direto entre o entrevistador e o homem.

[11] TURING, Alan M. Computing Machinery and Intelligence. Mind, New Series, Vol. 59, No. 236 (Oct., 1950), p. 433-460. Conferir PENROSE, Roger. A mente nova do rei: computadores, mentes e as leis da física. RJ: Campus, 1991, p. 5.

[12] GANASCIA, Jean-Gabriel. Inteligência artificial.  SP: Atica, 1997, p. 33-34.

[13] O cenário faz lembrar o famosíssimo livro de Mary Shelley, Frankenstein, ou o Prometeu Moderno. Nele, conta-se a história de um cientista, o Sr. Frankenstein, que cria, com restos mortais, uma criatura assemelhada ao ser humano. Entretanto, a criatura é dotada de força sobre-humana, mas também de uma aparência apavorante, algo que o impede de relacionar com humanos, algo que desejava. Sentindo-se amaldiçoado por seus traços fantasmagóricos, a criatura torna-se algoz do seu criador, após uma caçada alucinante. SHELLEY, Mary. Frankenstein. Rio de Janeiro: DarkSide Books, 2017.

[14] HARARI, Yuval Noah. Homo Deus: uma breve história do amanhã. 1ª ed. São Paulo: Companhia das Letras, 2016, p. 322.

[15] DOMINGOS, Pedro. O algoritmo mestre. Como a busca pelo algoritmo de machine learning definitivo recriará nosso mundo. São Paulo: Novatec Editora Ltda, 2017, p. 28.

[16] Noção importante, também tratada por Pedro Domingos na mesma obra, é o denominado “machine learning”, um subcampo da IA, em que são incluídos dados de entrada e o resultado desejado, e o algoritmo transforme um no outro, isto é, cria o próprio programa. O problema seria exatamente a liberdade que um algoritmo mestre teria na criação de algoritmos e, ao fim e ao cabo, na tomada de decisões. Com associação entre algoritmos dessa natureza e a robótica, o ser humano, como espécie, poderia ter sérios “problemas”.

[17] VALENTINI, Rômulo Soares. Julgamento por computadores? As novas possibilidades da juscibernética no século XXI e suas implicações para o futuro do direito e do trabalho dos juristas. 2017

[18] VALENTINI, Rômulo Soares. Julgamento por computadores? As novas possibilidades da juscibernética no século XXI e suas implicações para o futuro do direito e do trabalho dos juristas. 2017, p. 119.

[19] VALENTINI, Rômulo Soares. Julgamento por computadores? As novas possibilidades da juscibernética no século XXI e suas implicações para o futuro do direito e do trabalho dos juristas. 2017, p. 121.

[20] Ferramenta de reconhecimento de voz da Apple.

[21] STRECK, Lenio Luiz. O que é isto: decido conforme minha consciência?. 4. ed. rev. Porto Alegre: Livraria do Advogado Editora, 2013.

[22] GUEDES, Marcelo Nunes. Jurimetria: como a estatística pode reinventar o Direito. São Paulo: Editora Revista dos Tribunais, 2016.

[23] Sobre a questão da técnica em Heidegger, conferir: MOZETIC, Vinícius. A hermenêutica jurídica (crítica) da tecnologia pós-moderna como resposta para o problema da compreensão, interpretação e aplicação do direito. Tese (doutorado). São Leopoldo, 2016, p. 48-51.

[24] Recorda-se uma frase, possivelmente uma pichação, com o seguinte conteúdo, que sugere a vitória e vingança divinas: “Deus está morto, assinado: Nietzsche. Nietzsche está morto, assinado: Deus”. Há de se pedir desculpas pela reprodução da forte frase nietzschiana, entretanto, em nossa visão, em se tratando da problemática da Inteligência Artificial, somos lançados, de modo inescapável, à questão da criação, assim como o faz Harari em seu livro “Homo Deus”.

[25] TORRANO, Bruno; OMMATI, José Emílio Medauar. O positivismo jurídico no século XXI. Rio de Janeiro: Lumen Juris, 2018, apresentação.

[26] DWORKIN, Ronald. Levando os direitos a sério. São Paulo: Martins Fontes, 2002, p. 27-29. Conferir também: PEDRON, Flávio Quinaud. Mutação constitucional na crise do positivismo jurídico: história e crítica do conceito no marco da teoria do direito como integridade. Belo Horizonte: Arraes Editores, 2012, p. 169-170.

[27] GOMES, Alexandre Travessoni. O fundamento de validade do direito: Kant e Kelsen. 2. ed. rev., atual. e ampl. Belo Horizonte: Mandamentos, 2004, p. 163-164. Conferir também: WALUCHOW, Wilfrid J. Positivismo jurídico incluyente. Madrid/Barcelona: Marcial Pons, 2007, p. 95.

[28] WALUCHOW, Wilfrid J. Positivismo jurídico incluyente. Madrid/Barcelona: Marcial Pons, 2007, p. 96.

[29] MACCORMICK, Neil. H. L. A. Hart. Rio de Janeiro: Elsevier, 2010, p. 166-167.

[30] MACCORMICK, Neil. H. L. A. Hart. Rio de Janeiro: Elsevier, 2010, p. 169-171.

[31] A frase é de Valentini.

[32] Conferir as reflexões de Karl Popper sobre os tipos de linguagem.


LEIA TAMBÉM

LEIA TAMBÉM
COMENTE

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

This site uses Akismet to reduce spam. Learn how your comment data is processed.