Máquina Moral: Engenheiros Dotados De Inteligência Artificial Com Moralidade E ética - Visão Alternativa

Índice:

Máquina Moral: Engenheiros Dotados De Inteligência Artificial Com Moralidade E ética - Visão Alternativa
Máquina Moral: Engenheiros Dotados De Inteligência Artificial Com Moralidade E ética - Visão Alternativa

Vídeo: Máquina Moral: Engenheiros Dotados De Inteligência Artificial Com Moralidade E ética - Visão Alternativa

Vídeo: Máquina Moral: Engenheiros Dotados De Inteligência Artificial Com Moralidade E ética - Visão Alternativa
Vídeo: Questões éticas da Inteligência Artificial / Ethical issues with AI | Ana Sofia Carvalho | TEDxPorto 2024, Pode
Anonim

Quanto mais forte a IA entra em nossa vida diária, mais frequentemente ela tem que enfrentar dilemas morais e éticos complexos, que às vezes não são tão fáceis para uma pessoa viva. Cientistas do MIT tentaram resolver esse problema e dotaram a máquina da capacidade de pensar em termos de moralidade, com base na opinião da maioria das pessoas vivas.

Alguns especialistas acreditam que a melhor maneira de treinar a inteligência artificial para lidar com situações moralmente difíceis é por meio do uso da “experiência da multidão”. Outros argumentam que essa abordagem tem viés, e diferentes algoritmos podem chegar a diferentes conclusões a partir do mesmo conjunto de dados. Como as máquinas podem estar em tal situação, que obviamente terá que tomar difíceis decisões morais e éticas ao trabalhar com pessoas reais?

Intelecto e moralidade

Conforme os sistemas de inteligência artificial (IA) evoluem, os especialistas estão cada vez mais tentando resolver o problema de como melhor dar ao sistema uma base ética e moral para a execução de certas ações. A ideia mais popular é que a IA tire conclusões estudando as decisões humanas. Para testar essa suposição, pesquisadores do Instituto de Tecnologia de Massachusetts criaram a Máquina Moral. Os visitantes do site foram solicitados a fazer escolhas sobre o que um veículo autônomo deveria fazer quando confrontado com uma escolha bastante difícil. Por exemplo, esse é um dilema familiar sobre um potencial acidente, que tem apenas duas opções para o desenvolvimento de eventos: um carro pode atingir três adultos para salvar a vida de duas crianças, ou pode fazer o contrário. Qual opção você deve escolher? E é possível, por exemplo,sacrificar a vida de um idoso para salvar uma mulher grávida?

Como resultado, o algoritmo montou um enorme banco de dados com base nos resultados dos testes, e Ariel Procaccia do Departamento de Ciência da Computação da Carnegie Mellon University decidiu usá-los para melhorar a inteligência da máquina. Em um novo estudo, ele e um dos criadores do projeto, Iyad Rahwan, carregaram a base completa do projeto Máquina Moral na IA e pediram ao sistema para prever como o carro no piloto automático reagiria a cenários semelhantes, mas ainda ligeiramente diferentes. Procaccia queria demonstrar como um sistema baseado em votação pode ser uma solução para inteligência artificial “ética”. é possível.

Moralidade cruzada

Vídeo promocional:

A própria ideia de escolher entre dois resultados moralmente negativos não é nova. A ética usa um termo separado para isso: o princípio do duplo efeito. Mas este é o campo da bioética, mas ninguém havia aplicado tal sistema a um carro e, portanto, o estudo despertou particular interesse entre especialistas em todo o mundo. O copresidente da OpenAI, Elon Musk, acredita que criar IA “ética” é uma questão de desenvolver diretrizes ou políticas claras para orientar o desenvolvimento do programa. Os políticos o estão ouvindo gradualmente: por exemplo, a Alemanha criou os primeiros princípios éticos do mundo para carros autônomos. Até o Alphabet AI DeepMind do Google agora tem um departamento de ética e moral pública.

Outros especialistas, incluindo uma equipe de pesquisadores da Duke University, acreditam que a melhor maneira de seguir em frente é criar uma “estrutura geral” que descreva como a IA tomará decisões éticas em uma determinada situação. Eles acreditam que a unificação das visões morais coletivas, como na mesma Máquina Moral, tornará a inteligência artificial ainda mais moral no futuro do que a sociedade humana moderna.

Críticas à "máquina moral"

Seja como for, no momento o princípio da "opinião da maioria" está longe de ser confiável. Por exemplo, um grupo de entrevistados pode ter preconceitos que não são comuns a todos os outros. O resultado será que IAs dados exatamente o mesmo conjunto de dados podem chegar a conclusões diferentes com base em diferentes amostras dessa informação.

Para o professor James Grimmelmann, que se especializou na dinâmica entre software, riqueza e poder, a própria ideia de moralidade pública parece falha. “Não é capaz de ensinar ética em IA, mas apenas dotá-la de uma aparência de padrões éticos inerentes a uma determinada parcela da população”, diz ele. E o próprio Procaccia, como mencionado acima, admite que suas pesquisas nada mais são do que uma prova de conceito bem-sucedida. No entanto, ele está confiante de que tal abordagem pode trazer sucesso para toda a campanha para criar uma IA altamente moral no futuro. “A democracia, sem dúvida, tem uma série de deficiências, mas como um sistema unificado ela funciona - mesmo que algumas pessoas ainda tomem decisões com as quais a maioria não concorda”.

Vasily Makarov

Recomendado: