Dilema moral

Sergio Ricciuto Conte

O avanço tecnológico traz muitos benefícios para a humanidade em todos os campos. Afeta nossas vidas de diversas formas, trazendo-nos facilidades no nosso dia a dia.

Uma das áreas com mais avanços é a da mobilidade, particularmente com o aprimoramento dos veículos autônomos. Sem dúvida, teremos mais eficiência nos deslocamentos, economia de tempo no trânsito e viagens mais prazerosas, sem a necessidade de atenção ao volante. Alguns estimam que os veículos autônomos poderão reduzir em 90% os acidentes de trânsito. A poluição também deve ser reduzida pela menor emissão de gases poluentes.

Como resultado desses aspectos e de outros, haveria melhora da qualidade de vida. No entanto, com esse avanço vem à tona questões básicas aos valores humanos na sociedade. Como esses veículos serão programados quando estiverem em situação de decisão moral? Um exemplo que sempre é citado é se os carros estão dirigindo sozinhos, em caso de acidente são eles que irão decidir quem vai morrer e quem vai viver. Como não há motorista, os softwares que controlam o veículo têm a “sua própria moral” e é quem decide em casos críticos. Temos um dilema: o carro tem que decidir se, por exemplo, atropela um idoso ou uma mãe com filhos. Outro exemplo, se salva a vida do passageiro atropelando alguém ou se se joga contra um muro.

De maneira geral, a busca é para que o maior número de vidas seja salvo, que o menor nível de erros e fatalidades ocorram. Essa situação é de dilema moral. Esse dilema foi tratado por Philippa Foot, que apresentou a seguinte situação: um trem está sem controle e prestes a atropelar cinco pessoas; no entanto é possível desviá-lo para outra linha, acionando um botão. Mas nesse caminho se encontra outra pessoa que será atropelada. Você acionaria o botão? 

Nesse teste, a maioria das pessoas acionaria o botão, mas essas mesmas pessoas se dizem não querer andar em veículos com essa programação. Por isso importa saber como cada carro será programado. Se o seu dono terá interferência nesse processo. Se essa programação irá privilegiar a própria segurança ou a segurança do coletivo social.

O Massachusetts Institute of Technology (MIT) deu início, em 2014, a um experimento denominado Máquina Moral, que propõe decidir entre alguns cenários quem vai viver e quem vai morrer. O jogo apresenta opções de gênero, idade e peso. Temos que decidir quem o carro vai atropelar ou salvar. Na escolha entre a própria vida e a de pedestres, os participantes mostram-se divididos, pois 50% escolhem se salvar. Nas outras situações, passa a existir um padrão quando as pessoas escolhem salvar mais as mulheres, os jovens e pessoas de status social elevado. Quem quiser testar essa Máquina Moral pode acessar o site: https://www.moralmachine.net/hl/pt.

Vários outros experimentos dessa natureza são conduzidos atualmente. Os especialistas admitem que, em decisões que envolvem risco de vida, as pessoas pensam de maneira diferente do que normalmente costumam pensar. Não há absolutos morais na tomada de decisão humana.

Essa temática também é tratada com preocupação pela Igreja Católica. Na abertura do seminário “Roboética: Humanos, Máquinas e Saúde”, em 2019, na Academia Pontifícia da Vida, o Papa Francisco menciona o paradoxo do “progresso” e adverte contra o desenvolvimento de técnicas sem antes pensar nos impactos negativos que elas podem ter na sociedade.”Antes de tudo é preciso compreender as transformações que se anunciam nestas novas fronteiras, para identificar como orientá-las a serviço da pessoa humana, respeitando e promovendo a sua intrínseca dignidade.”

As opiniões expressas na seção “Opinião” são de responsabilidade do autor e não refletem, necessariamente, os posicionamentos editorais do jornal O SÃO PAULO.

guest
0 Comentários
Inline Feedbacks
Veja todos os comentários