O Estado de S. Paulo

O dilema moral dos carros autônomos

MAIS INFORMAÇÃO:

- E-MAIL: fernando@reinach.com HTTPS://DOI.ORG/10.1038/S41586-0180637-6 2018

Éraro, mas todo motorista pode ser forçado a tomar decisões morais. Exemplo: uma criança corre na frente do seu carro, você a atropela ou desvia o veículo e atropela a mãe, apavorada, que vem correndo logo atrás? É difícil decidir. Outras vezes é fácil. Se o que aparece na sua frente é um cãozinho, você atropela o cachorro ou desvia o carro e atropela a criança que vem atrás do animal de estimação? Atualmente, essas decisões são deixadas a cargo do motorista. Os cenários são tão variados e as ocorrência­s dessas emergência­s são tão raras que as autoescola­s não abordam essa questão e o código de trânsito não sugere qual a melhor solução. Qualquer que seja a decisão do motorista, a culpa vai ser decidida na Justiça.

Mas com a chegada dos carros autônomos isso vai mudar. Não haverá uma pessoa no volante para tomar a decisão, ela vai ser tomada pelo computador que dirige o carro. E computador­es não fazem julgamento­s morais, eles simplesmen­te seguem o programa instalado em sua memória. Se forem programado­s para priorizar crianças sobre adultos, vão desviar o carro da criança e atropelar a mãe. Nos últimos anos, os engenheiro­s envolvidos na construção desses carros têm coçado a cabeça tentando decidir como programar os carros. O problema é que os cenários possíveis são muitos e não sabemos como as pessoas se comportam, ou acham que deveriam se comportar.

Agora a ciência veio ajudar. Foi publicado um estudo em que 40 milhões de pessoas, de 233 países, foram defrontada­s com os mais diferentes dilemas morais enfrentado­s pelos motoristas. A boa notícia é que todos os seres humanos concordam com três regras gerais. A má notícia é que foram detectadas diferenças entre pessoas educadas em diferentes países.

Os cientistas criaram um website interativo em que problemas morais eram apresentad­os aos internauta­s, que, por sua vez, deveriam selecionar entre duas possibilid­ades (por exemplo, atropelar a criança ou a mãe). As variáveis usadas nos diferentes problemas incluíam: pessoa x animal, adulto x crianças, pobre x rico, número de pessoas envolvidas, sexo da vítima, se a pessoa estava atravessan­do na faixa legalmente ou não, e assim por diante. Dada a grande quantidade de possíveis problemas, o número de respostas que necessitam ser coletadas para obter resultados significat­ivos é enorme. Até agora, mais de 40 milhões de pessoas já usaram o site moralmachi­ne.mit.edu – eu fui um deles, e você também pode dar sua contribuiç­ão, pois o experiment­o ainda está em andamento.

A análise dos dados obtidos até agora mostrou que a maioria da população segue três princípios quando faz seu julgamento moral: dão alta preferênci­a a salvar pessoas sobre animais, dão alta preferênci­a a salvar um número maior de vidas e também preferem salvar pessoas jovens às idosas. Muitas outras preferênci­as também apareceram, mas nesse caso a preferênci­a é relativame­nte baixa: elas preferem deixar o carro seguir sua rota original a agir, preferem salvar pedestres a salvar os passageiro­s do carro, preferem salvar pessoas magras a gordas, preferem salvar pessoas de status social mais alto e preferem salvar pessoas que estão agindo legalmente (por exemplo, atravessan­do na faixa). Muitas dessas preferênci­as são exatamente o que esperaríam­os, mas outras são totalmente inesperada­s.

O mais interessan­te é que as preferênci­as de populações distintas não são as mesmas. Simplifica­ndo, as diferenças podem ser colocadas em três grupos de países, o Oeste (Europa, América do Norte, Austrália e Brasil), o Leste (Oriente Médio, Índia, China e Japão) e o que eles denominara­m Sul (América Hispânica, Norte da África e Mongólia). No Oeste foi detectada uma preferênci­a por não agir, deixando o carro seguir em frente quando aparece o dilema. No Leste, as crianças perdem dos adultos. Já no Sul, ocorre o oposto: criança tem preferênci­a, com mulheres e pessoas de alto status (preferem salvar um homem de terno a um mal vestido). A diferença entre países é mais complexa e sutil, e uma explicação detalhada não cabe aqui. Mas o importante é que a decisão moral varia um pouco de uma cultura para outra.

O fato de existir um consenso na população mundial indica um caminho possível para os engenheiro­s que vão programar os carros, mas as diferenças regionais preocupam. Será que um carro que viaja do Brasil para a Argentina deve mudar sua programaçã­o moral quando atravessa a fronteira? É provável que os carros autônomos de diferentes fornecedor­es respondam aos dilemas morais de forma diferente, da mesma forma que pessoas distintas tomam decisões morais diferentes. Dá para imaginar o problema que isso criaria para os juízes. Muita água ainda vai rolar.

Decisões serão tomadas pelo computador que dirige o veículo, não por pessoas

THE MORAL MACHINE EXPERIMENT. NATURE

 ??  ??

Newspapers in Portuguese

Newspapers from Brazil