A Falta de Neutralidade da Tecnologia e a Necessidade de Ensino de Ética e de Regulação para os Programadores

0
Comentários
0
likes
0
Coment.
0
likes

É bastante conhecido o debate relativo à ética na ciência. O questionamento gira em torno de se identificarem os limites do avanço científico e do risco de causar danos à humanidade. O que se constata, contudo, é que o avanço da informática, em especial da inteligência artificial, tem demandado novas discussões sobre os limites éticos da programação.

Tal controvérsia já chamou a atenção de universidades americanas, como Harvard, Texas, Standford e o MIT (Massachusetts Institute of Tecnology), que buscam implementar modelos de disciplinas relacionadas à ética para seus estudantes. Tudo para conscientizá-los dos riscos envolvidos no desenvolvimento da atividade de programação de equipamentos dotados de inteligência artificial.

Isso porque essa tecnologia possibilita que as máquinas aprendam sozinhas com base em uma gama enorme de dados não estruturados, sem a participação de qualquer programador. Em outras palavras, em vez de o programador imputar uma a uma as operações a serem desempenhadas pelo sistema operacional da máquina, ele cria um conjunto de fórmulas complexas e genéricas (os algoritmos), com base nos quais possibilita que a máquina crie seus próprios padrões de comportamento e decisão. Tal se dá pela captação de padrões fornecidos pelos usuários do sistema ou pelo ambiente físico em que a máquina opera.

Como exemplo, um carro autônomo pode aprender a desviar de um buraco quando perceber uma saliência no solo ou a diminuir sua marcha diante de uma lombada ou, ainda, parar para que um pedestre termine a travessia da uma rua. É o que também ocorre com os aplicativos de música, de compras, os canais on demand de filmes etc.

Como alertado por Zeynep Tufekci, em palestra proferida no evento TEDSummit, as máquinas aprendem, de forma própria (machine learning), a identificar os padrões mais diversos. Criam padrões por migalhas de informação, muitas delas transmitidas inconscientemente – o que inclui todo tipo de preferência pessoal, até mesmo os preconceitos.

Assim, não é viável verificar de que modo o padrão foi criado. A criação da forma de aprendizagem é, assim, uma caixa-preta, que pode causar diversos danos a pessoas. Ou seja, as máquinas podem aprender a gerar resultados tendenciosos e preconceituosos. Ela dá o exemplo de softwares utilizados para seleção de executivos, que podem excluir mulheres em idade fértil ou pessoas com tendência à depressão.

Podem também omitir informações com base nos algoritmos estabelecidos para tal seleção (como é o caso do like do Facebook, que pode ocultar uma notícia importante, porém triste, porque nessas ninguém “dá um like”, e dar ampla dimensão a um fato irrelevante, porque é engraçado e “ganhador de likes”).

Pelos motivos mencionados pela palestrante, somados a diversos outros problemas éticos já constatados pelas grandes empresas de tecnologia (que vão desde invasões de privacidade até o uso de softwares viciados para cálculo de pena), os desenvolvedores de sistemas têm criado o consenso de que a tecnologia não é neutra nem capaz de dotar de total objetividade as decisões humanas.

Mesmo que se considere que os humanos errem ou ajam de má-fé, ainda assim é possível exigir deles a responsabilização por seus atos ou agir de forma a conscientizá-los sobre os riscos de suas atitudes. O que não é exatamente possível com máquinas autônomas (ao menos não no presente momento).

Portanto, a preocupação atual tem se inclinado a preparar os futuros programadores e desenvolvedores para considerar esse lado obscuro das inovações, que podem causar um impacto muito maior no meio social do que o previsto inicialmente no projeto. Assim, busca-se preparar o estudante para levar em conta os valores éticos e identificar um conjunto de dados tendenciosos. Ademais, procura-se preparar os empresários da área para o uso ético dos meios informáticos, com o respeito ao meio social e às leis que nele operam.

Tal preparo, a nosso ver, envolve ampla discussão ética não só nos cursos de informática, mas também nos de Direito. Nossos advogados, promotores, juízes e demais técnicos deverão estar habilitados nessas questões, a fim de auxiliar no controle de decisões proferidas por softwares e evitar que danos permanentes sejam causados por uma ferramenta autônoma. De quem será a responsabilidade por esses atos? É possível culpar a própria máquina? Como realizar a efetiva reparação dos danos? Como evitá-los? É possível pensar em uma proposta preventiva geral, à semelhança do que se intentou para o Direito Ambiental? Essas são apenas algumas das questões que conseguimos antever como essenciais para o debate.

No Brasil, a questão da ética no meio informático está caminhando com as propostas de regulamentação das profissões ligadas a tais atividades (há projetos de lei nesse sentido). Alguns cursos de informática fornecem aulas de ética e de ética profissional referente ao tema. Registramos que a Sociedade Brasileira de Computação disponibilizou em 2013 um código de ética para orientar seus profissionais (o código pode ser acessado no endereço http://www.sbc.org.br/jdownloads/02.codigo_de_etica_da_sbc.pdf).

Entretanto, devem os cursos de Direito ingressar nessa discussão, tanto para fornecer subsídios ético-jurídicos, como para aparelhar os profissionais que, em breve, estarão diante de questões envolvendo decisões tomadas por máquinas que causaram danos a pessoas.

Por fim, concordamos com Zeynep Tufekci quando defende que a responsabilidade pelas decisões éticas não pode ser delegada a uma máquina. Essa é a consciência que todos precisamos ter. As decisões éticas são de responsabilidade dos humanos e sempre devem ser. As máquinas são nossas criações. E nada disso mudaria mesmo que elas pudessem aprender ética.


Veja também:

Conheça a obra da autora (Clique aqui!)

LEIA TAMBÉM
COMENTE

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

This site uses Akismet to reduce spam. Learn how your comment data is processed.