Ética e inteligência artificial

FELIPE DE MORAES ANDRADE

FELIPE DE MORAES ANDRADE

Procurador do Estado

34 artigos Seguir

A automação das decisões, seja no ambiente de negócios ou no setor público, conduz a indagações sobre a utilização o controle dos limites éticos do uso da inteligência artificial. Nos tempos atuais nossos relacionamentos, padrões de consumo e afeições políticas sofrem o influxo das sugestões decorrente do aprendizado das máquinas sobre os nossos padrões de comportamento.

Entretanto, ao automatizar o que deve ser individualmente apresentado como publicidade a determinado cidadão com base em suas preferências demonstradas previamente retira-se o componente decisório humano, desta feita temos decisões sendo adotadas com base apenas em algoritmos (leituras matemáticas para seguir determinadas instruções) que emulam o pensamento humano, criando uma rede neural, mas que não possuem aptidão para realizar o controle sobre o aspecto ético da informação e atividades realizadas.

 Importante destacar que a neutralidade ética das decisões parametrizadas por máquinas que aprendem já é objeto de questionamentos judiciais. A Suprema Corte Americana intentou discutir a imunidade legal dos provedores das plataformas de internet no caso onde o pai de Nohemi González, morta em atentado realizado em Paris no clube Bataclan, por radicais mulçumanos. A tese do autor consistia em apontar que o atentado e a radicalização dos terroristas decorreram da indicação de conteúdo pelo Youtube. A Suprema Corte dos Estados Unidos decidiu pela necessidade de regulamentação por lei da matéria para tolher a liberdade de conteúdo dos provedores, mas a semente da discussão foi lançada.

O professor de Havard Michael Sanders apresenta a perspectiva da ética por princípios, como declinado na Filosofia de Imannuel Kant onde existe limites claros sobre a atuação humana, como, por exemplo, a ideia que nenhuma ser humano deve ser considerado um meio, mas sempre um fim em si mesmo. Em outro diapasão existe a perspectiva ética do utilitarismo, a qual defende que agir de forma correta é garantir a utilidade das decisões e benefício da felicidade geral nos termos da filosofia utilitarista de Jeremy Betham.

Como avaliar seja pelo aspecto dos princípios ou até mesmo da utilidade a correção ética de decisões automatizadas, que gozam de autonomia com relação ao agente que disponibiliza o serviço? Em tempo, várias decisões humanas referentes a finanças, relacionamentos pessoais e política são entregues a máquinas que emulam o comportamento humano.

Entretanto, como submeter a atuação destas máquinas aprendizes a critérios éticos ainda é uma grande dúvida. Como disciplinar situações como, por exemplo: adoção de critérios discriminatórios por uma i.a. no âmbito de uma rede social ou site relacionamento, que tenda a diminuir ou exterminar determinado grupo étnico ou confessional? Acredito que não temos nem as perguntas adequadas sobre o assunto, muito menos as respostas.

Compartilhar :

Twitter
Telegram
WhatsApp
plugins premium WordPress
Abrir bate-papo
1
Olá 👋
Podemos ajudá-lo?