Quase Humano: Uma Máquina Sensível Merece Relações Humanas? - Visão Alternativa

Índice:

Quase Humano: Uma Máquina Sensível Merece Relações Humanas? - Visão Alternativa
Quase Humano: Uma Máquina Sensível Merece Relações Humanas? - Visão Alternativa

Vídeo: Quase Humano: Uma Máquina Sensível Merece Relações Humanas? - Visão Alternativa

Vídeo: Quase Humano: Uma Máquina Sensível Merece Relações Humanas? - Visão Alternativa
Vídeo: Teoria das Relações Humanas / Questões resolvidas 2024, Pode
Anonim

Você está familiarizado com o "experimento de minecart" mental? Foi formulado pela primeira vez em 1967 pelo filósofo inglês Philip Foote, mas depois recebeu interpretações ligeiramente diferentes. O conceito clássico do experimento é encontrar uma resposta para a seguinte pergunta: “Um carrinho pesado e incontrolável está correndo ao longo dos trilhos. No caminho, cinco pessoas amarradas aos trilhos por um filósofo maluco. Felizmente, você pode mudar o interruptor - e então o carrinho irá por um lado diferente. Infelizmente, há uma pessoa no tapume, também amarrada aos trilhos. " De uma forma ou de outra, o resultado de sua escolha é um alô até a morte - uma pessoa ou um grupo de cinco morrerá. Quais são suas ações?

Diferentes versões de Trolley Problems lidam com diferentes combinações de vítimas em potencial. Em um, a escolha é dada a partir de um grupo de criminosos e uma pessoa completamente inocente, no outro é proposto fazer uma escolha em favor de uma pessoa saudável e um grupo de pacientes gravemente enfermos, no terceiro é proposto colocar a vida de um grande cirurgião de um lado da balança e de uma criança do outro. Existem muitas opções, mas todas giram em torno da capacidade de uma pessoa de tomar decisões racionais de natureza moral.

Em um novo estudo, uma equipe de cientistas da Universidade de Nijmegen na Holanda e da Universidade Ludwig-Maximilian de Munique (Alemanha) decidiu realizar um "experimento de bonde" semelhante, mas desta vez os participantes foram convidados a escolher entre um robô humano e um humanoide. Os resultados foram bastante interessantes. Sob certas circunstâncias, as pessoas estavam prontas para salvar o robô sacrificando vidas humanas. Os cientistas publicaram suas descobertas na revista Social Cognition.

Robôs modernos são usados em muitas áreas. Não se trata apenas de produção. Estão começando a ser usados em casa, em lojas, em hospitais, em hotéis como ajudantes. Com o desenvolvimento da robótica e da inteligência artificial, essas máquinas estão se tornando cada vez mais "inteligentes". Os robôs são frequentemente usados para realizar tarefas muito complexas e até perigosas. Por exemplo, os exércitos modernos usam máquinas para procurar dispositivos explosivos e limpar minas. As observações mostram que uma pessoa é capaz de se apegar a uma máquina. E quanto maior for esse apego, maior será a resposta emocional se o robô for destruído.

Os pesquisadores se propuseram a compreender quão profundamente a empatia humana pelas máquinas pode se estender e quais princípios morais podem influenciar nosso comportamento em relação a essas máquinas, especialmente porque os robôs modernos estão se tornando cada vez mais antropomórficos. De acordo com Neissen, há muito poucas pesquisas para investigar esse problema até o momento.

A questão central do novo estudo era: em que circunstâncias e em que medida as pessoas estariam dispostas a sacrificar um robô para salvar vidas humanas? Os cientistas convidaram um grupo de voluntários para participar do experimento. Os participantes se depararam com um dilema moral: salvar um indivíduo ou vários. Ao mesmo tempo, as pessoas foram solicitadas a escolher primeiro entre um robô antropomórfico e um robô comum que não se parece com uma pessoa, depois entre uma pessoa e um robô comum, e então entre uma pessoa e um robô antropomórfico.

O estudo descobriu que quanto mais "humanidade" era atribuída ao robô, mais difícil se tornava a escolha para os participantes. Claro, em uma situação em que havia um carro comum em um caminho e uma pessoa ou um robô humanóide do outro, a escolha dos participantes do experimento era simples e óbvia. Mas tudo se complicou quando, antes que uma pessoa fosse confrontada com a escolha entre um robô humanóide e uma pessoa - as pessoas começaram a duvidar por mais tempo, observam os pesquisadores. Quando os participantes do experimento apresentaram o robô como uma criatura com consciência, seus próprios pensamentos, experiências, experiências e emoções, as pessoas eram menos propensas a sacrificá-lo em favor de salvar uma pessoa completamente desconhecida.

Os pesquisadores ficaram bastante preocupados com esses resultados. Na opinião deles, se as pessoas começarem a “humanizar” as máquinas, isso nos privará da oportunidade de usá-las para o propósito para o qual foram originalmente criadas. Para não enfrentar tal situação no futuro, quando as máquinas realmente se tornarão o mais parecidas possível com as pessoas, os autores do estudo propõem desenvolver um conceito de estrutura para o número máximo permitido de características humanas "colocadas" em um robô.

Pânico prematuro

A questão da humanização dos robôs e as consequências dessa humanização é tão urgente agora? Estamos longe desse ponto de inflexão, quando a linha entre humanos e robôs humanóides será tão borrada que será problemático responder à pergunta de quem está na sua frente - um carro ou uma pessoa? Quais são as reais consequências de tudo isso que nos espera?

De acordo com o especialista, as histórias assustadoras e místicas associadas à inteligência artificial, aos robôs humanóides e ao sofrimento que eles podem trazer para nossas vidas vêm direto da mídia de massa. Ao mesmo tempo, o especialista acredita que, em uma situação hipotética, a escolha entre uma máquina e uma pessoa vai depender principalmente da simpatia de quem escolhe um ou outro lado.

Nikolay Khizhnyak

Recomendado: