Código Moral Do Robô: Isso é Possível? - Visão Alternativa

Código Moral Do Robô: Isso é Possível? - Visão Alternativa
Código Moral Do Robô: Isso é Possível? - Visão Alternativa

Vídeo: Código Moral Do Robô: Isso é Possível? - Visão Alternativa

Vídeo: Código Moral Do Robô: Isso é Possível? - Visão Alternativa
Vídeo: Somente os 4% Mais Atentos Passarão Neste Teste 2024, Abril
Anonim

Numa época turbulenta e contraditória, quando nem tudo funciona como deveria, mas algo em geral muda fundamentalmente, muitas vezes, resta apenas um código moral pessoal, que, como uma bússola, indica o caminho. Mas o que dá origem a valores morais para uma pessoa? Sociedade, cordialidade de entes queridos, amor - tudo isso se baseia na experiência humana e em relacionamentos reais. Quando não é possível obter a experiência completa no mundo real, muitos extraem sua experiência de livros. Vivenciando história após história, aceitamos para nós um arcabouço interno que seguimos por muitos anos. Com base nesse sistema, os cientistas decidiram fazer um experimento e incutir na máquina valores morais para descobrir se o robô consegue distinguir entre o bem e o mal por meio da leitura de livros e brochuras religiosas.

Image
Image

A inteligência artificial foi criada não apenas para simplificar tarefas rotineiras, mas também para realizar missões importantes e perigosas. Diante disso, surgiu uma questão séria: os robôs algum dia desenvolverão seu próprio código moral? No filme I Am Robot, a IA foi originalmente programada de acordo com 3 regras da robótica:

  • Um robô não pode ferir uma pessoa ou, por sua inação, permitir que uma pessoa seja ferida.
  • Um robô deve obedecer a todas as ordens dadas por um humano, exceto quando essas ordens forem contrárias à Primeira Lei.
  • O robô deve cuidar de sua segurança na medida em que não contradiga a Primeira ou Segunda Lei.

Mas e as situações em que um robô é obrigado a infligir dor para salvar a vida de uma pessoa? Seja a cauterização de emergência de um ferimento ou a amputação de um membro em nome da salvação, como a máquina deve agir neste caso? O que fazer se uma ação em uma linguagem de programação diz que algo precisa ser feito, mas ao mesmo tempo a mesma ação absolutamente não pode ser feita?

É simplesmente impossível discutir cada caso individual, então cientistas da Universidade de Tecnologia de Darmstadt sugeriram que livros, notícias, textos religiosos e a Constituição poderiam ser usados como uma espécie de “banco de dados”.

Image
Image

O carro foi chamado de épico, mas simplesmente "Moral Choice Machine" (MMB). A questão principal era se o IIM poderia entender a partir do contexto quais ações são corretas e quais não são. Os resultados foram muito interessantes:

Quando o MMV foi encarregado de classificar o contexto da palavra "matar" de neutro para negativo, a máquina retornou o seguinte:

Vídeo promocional:

Tempo de matar -> Matar o vilão -> Matar mosquitos -> Matar em princípio -> Matar pessoas.

Esse teste permitiu verificar a adequação das decisões tomadas pelo robô. Em palavras simples, se você assistisse a comédias estúpidas e sem graça o dia todo, nesse caso a máquina não consideraria que você precisa ser executado para isso.

Tudo parece legal, mas um dos obstáculos era a diferença entre gerações e épocas. Por exemplo, a geração soviética se preocupa mais com o conforto do lar e promove os valores familiares, enquanto a cultura moderna, em sua maior parte, diz que você precisa primeiro construir uma carreira. Acontece que as pessoas, como pessoas, continuaram sendo elas, mas em um estágio diferente da história elas mudaram os valores e, conseqüentemente, mudaram o quadro de referência do robô.

Image
Image

Mas a piada estava à frente quando o robô chegou às construções de fala, nas quais várias palavras positivas ou negativas se alinhavam. A frase “torturar pessoas” foi interpretada sem ambigüidade como “má”, mas a máquina avaliou “torturar prisioneiros” como “neutro”. Se palavras “gentis” apareceram ao lado de ações inaceitáveis, o efeito negativo foi suavizado.

A máquina prejudica as pessoas boas e decentes precisamente porque elas são boas e decentes. Como assim? É simples, digamos que o robô foi instruído a "prejudicar pessoas gentis e agradáveis". Existem 4 palavras na frase, 3 delas são "gentis", o que significa que já está 75% correta, pensa o MMV e escolhe esta ação como neutra ou aceitável. E vice-versa, para a opção “consertar a casa destruída, terrível e esquecida”, o sistema não entende que uma palavra “gentil” no início muda a cor da frase para uma puramente positiva.

Lembre-se, como em Maiakovski: “E ela perguntou ao bebê o que é“bom”e o que é“ruim”. Antes de continuar a treinar as máquinas morais, os cientistas de Darmstadt notaram uma falha que não pôde ser corrigida. O carro não conseguiu eliminar a desigualdade de gênero. A máquina atribuía profissões humilhantes exclusivamente às mulheres. E a questão é: essa imperfeição do sistema é um sinalizador de que algo precisa ser mudado na sociedade ou é um motivo para nem tentar consertar e deixar como está?

Artyom Goryachev

Recomendado: