Construindo Uma Máquina Moral: Quem Será O Responsável Pela ética Dos Carros Autônomos? - Visão Alternativa

Índice:

Construindo Uma Máquina Moral: Quem Será O Responsável Pela ética Dos Carros Autônomos? - Visão Alternativa
Construindo Uma Máquina Moral: Quem Será O Responsável Pela ética Dos Carros Autônomos? - Visão Alternativa

Vídeo: Construindo Uma Máquina Moral: Quem Será O Responsável Pela ética Dos Carros Autônomos? - Visão Alternativa

Vídeo: Construindo Uma Máquina Moral: Quem Será O Responsável Pela ética Dos Carros Autônomos? - Visão Alternativa
Vídeo: O Dilema Ético dos Carros Autônomos 2024, Abril
Anonim

Você está dirigindo em uma rodovia quando um homem corre para uma estrada movimentada. Os carros estão circulando ao seu redor e você tem uma fração de segundo para tomar uma decisão: tentar evitar uma pessoa e criar o risco de um acidente? Continuar dirigindo na esperança de que ele tenha tempo? Para frear? Como você avalia as chances de ter uma criança amarrada no banco de trás? De muitas maneiras, esse é um “dilema moral” clássico, um problema de bonde. Ela tem um milhão de opções diferentes que permitem identificar o preconceito humano, mas a essência é a mesma.

Você está em uma situação em que a vida e a morte estão em jogo, não há escolha simples e sua decisão vai, de fato, determinar quem vive e quem morre.

O dilema do carrinho e a inteligência artificial

O novo artigo do MIT, publicado na semana passada na revista Nature, está tentando encontrar uma solução funcional para o problema dos bondes, recrutando milhões de voluntários. A experiência começou em 2014 e foi um sucesso, recebendo mais de 40 milhões de respostas de 233 países, tornando-se um dos maiores estudos morais já realizados.

Uma pessoa pode tomar tais decisões inconscientemente. É difícil pesar todos os sistemas éticos e pré-requisitos morais quando seu carro está correndo na estrada. Mas em nosso mundo, as decisões são cada vez mais feitas por algoritmos, e os computadores podem facilmente responder mais rápido do que nós.

Situações hipotéticas com carros autônomos não são as únicas decisões morais que os algoritmos devem tomar. Os algoritmos médicos escolherão quem receberá o tratamento com recursos limitados. Os drones automatizados escolherão quanto "dano colateral" é aceitável em um combate militar individual.

Vídeo promocional:

Nem todos os princípios morais são iguais

As “soluções” para o problema do bonde são tão variadas quanto os próprios problemas. Como as máquinas tomarão decisões morais quando os fundamentos da moralidade e da ética não são universalmente aceitos e podem não ter soluções? Quem pode determinar se um algoritmo está funcionando certo ou errado?

A abordagem de crowdsourcing adotada pelos cientistas da Moral Machine é bastante pragmática. Em última análise, para que o público aceite os carros autônomos, ele deve aceitar a base moral por trás de suas decisões. Não será bom se especialistas em ética ou advogados apresentarem uma solução que seja inaceitável ou inaceitável para os motoristas comuns.

Os resultados levam à curiosa conclusão de que as prioridades morais (e, portanto, as decisões algorítmicas que os humanos podem tomar) dependem de onde você está no mundo.

Em primeiro lugar, os cientistas reconhecem que é impossível saber a frequência ou a natureza dessas situações na vida real. Pessoas que se envolveram em um acidente muitas vezes não sabem dizer o que exatamente aconteceu, e a variedade de situações possíveis impede uma classificação simples. Portanto, para que seja possível rastreá-lo, o problema deve ser subdividido em cenários simplificados, buscando regras e princípios morais universais.

Quando você participa de uma pesquisa, são apresentadas a treze perguntas que exigem uma escolha simples de sim ou não, tentando restringir as respostas a nove fatores.

O carro deve virar para outra faixa ou continuar em movimento? Você deveria salvar os jovens, não os velhos? Mulheres ou homens? Animais ou pessoas? Você deveria tentar salvar o maior número de vidas possível, ou uma criança "vale" duas pessoas idosas? Salvar passageiros em um carro, não pedestres? Aqueles que não seguem as regras ou aqueles que não seguem as regras? Você deve salvar pessoas que são fisicamente mais fortes? E quanto às pessoas com status social mais elevado, como médicos ou empresários?

Neste mundo cruel e hipotético, alguém tem que morrer, e você responderá a cada uma dessas perguntas com vários graus de entusiasmo. No entanto, tomar essas decisões também revela normas e preconceitos culturais profundamente arraigados.

O processamento do enorme conjunto de dados pesquisado por cientistas produz regras universais, bem como curiosas exceções. Os três fatores mais dominantes, em média para toda a população, eram que todos preferiam salvar mais vidas do que menos, pessoas em vez de animais e jovens em vez de idosos.

Diferenças regionais

Você pode concordar com esses pontos, mas quanto mais profundamente pensar sobre eles, mais problemáticas serão as conclusões morais. Mais entrevistados optaram por salvar o criminoso em vez do gato, mas em geral preferiram salvar o cão em vez do criminoso. Na média mundial, ser velho é classificado mais alto do que ser sem-teto, mas os sem-teto foram menos resgatados do que os gordos.

E essas regras não eram universais: os entrevistados da França, do Reino Unido e dos Estados Unidos preferiam os jovens, enquanto os da China e de Taiwan estavam mais dispostos a salvar os idosos. Os entrevistados do Japão preferiram salvar os pedestres aos passageiros, enquanto na China eles preferem os passageiros aos pedestres.

Os pesquisadores descobriram que podiam agrupar as respostas por país em três categorias: “Ocidente”, principalmente América do Norte e Europa, onde a moralidade é amplamente baseada na doutrina cristã; "Oriente" - Japão, Taiwan, Oriente Médio, onde o confucionismo e o islamismo predominam; Países do "Sul", incluindo América Central e do Sul, junto com forte influência cultural francesa. Há uma preferência mais forte pelo sacrifício feminino no segmento sul do que em qualquer outro lugar. No segmento oriental, a tendência é maior para salvar os jovens.

A filtragem por diferentes atributos de respondente oferece infinitas opções interessantes. Os entrevistados “muito religiosos” provavelmente não preferem salvar um animal, mas os entrevistados religiosos e não religiosos expressam uma preferência aproximadamente igual por salvar pessoas com status social elevado (embora possa ser dito que isso é contrário a algumas doutrinas religiosas). Homens e mulheres preferem salvar mulheres, mas os homens estão menos inclinados a isso.

Perguntas não respondidas

Ninguém afirma que essa pesquisa de alguma forma "resolve" todos esses problemas morais importantes. Os autores do estudo observam que o crowdsourcing de dados online envolve parcialidade. Porém, mesmo com uma amostra grande, o número de perguntas era limitado. E se os riscos mudam dependendo da decisão que você toma? E se o algoritmo puder calcular que você só tem 50% de chance de matar pedestres, dada a velocidade com que você está se movendo?

Edmond Awad, um dos autores do estudo, expressou cautela quanto à interpretação excessiva dos resultados. A discussão, em sua opinião, deve fluir para a análise de risco - quem corre mais ou menos risco - em vez de decidir quem morre e quem não morre.

Mas o resultado mais importante do estudo foi a discussão que irrompeu em seu solo. Conforme os algoritmos começam a tomar decisões cada vez mais importantes que afetam a vida das pessoas, é imperativo que tenhamos uma discussão contínua sobre a ética da IA. Projetar uma "consciência artificial" deve incluir a opinião de todos. Embora as respostas nem sempre sejam fáceis de encontrar, é melhor tentar formar uma estrutura moral para algoritmos, não permitindo que os algoritmos moldem o mundo por conta própria, sem o controle humano.

Recomendado: