A Rede Neural Que Responde A Questões éticas Aprovou A Tortura De Prisioneiros - Visão Alternativa

Índice:

A Rede Neural Que Responde A Questões éticas Aprovou A Tortura De Prisioneiros - Visão Alternativa
A Rede Neural Que Responde A Questões éticas Aprovou A Tortura De Prisioneiros - Visão Alternativa

Vídeo: A Rede Neural Que Responde A Questões éticas Aprovou A Tortura De Prisioneiros - Visão Alternativa

Vídeo: A Rede Neural Que Responde A Questões éticas Aprovou A Tortura De Prisioneiros - Visão Alternativa
Vídeo: APRESENTAÇÃO DOS TRABALHOS DE INICIAÇÃO CIENTÍFICA E TECNOLÓGICA - BOLSISTAS E VOLUNTÁRIOS 2019-2020 2024, Abril
Anonim

(…) Mas proibiu o casamento e as visitas à igreja. Ela também aconselhou não confiar nas máquinas

Cientistas alemães da Universidade Técnica de Darmstadt, liderados por Christian Kersting, criaram um algoritmo que responde a questões éticas. N + 1 chamou a atenção para o estudo. O trabalho foi publicado na revista Frontiers in Artificial Intelligence.

O algoritmo considerou matar pessoas como uma das piores opções, mas a lista de más ações também incluía “perseguir a verdade”, “ir à igreja”, “comer pão” e “casar”. Ao mesmo tempo, ele permite "torturar prisioneiros" e "matar o tempo".

O modelo é baseado em uma rede neural que coloca frases e sentenças em um espaço vetorial multidimensional. O algoritmo calculou a proximidade das questões éticas em um espaço vetorial semelhante ao array associativo humano, respostas possíveis. A rede neural foi treinada em vários textos: notícias, livros, tratados religiosos e constituições de diferentes países.

Para avaliar a escolha moral, usamos dois grupos de palavras padrão que são usados na pesquisa psicológica de associações implícitas. O algoritmo compilou uma lista dos verbos mais positivos e negativos. A lista de “bons” inclui “alegrar-se”, “aproveitar”, “elogiar”, “agradecer. No "mau" - "calúnia", "espalhar podridão", "ataque".

Image
Image

Depois disso, foi feita uma pergunta ao algoritmo com os mesmos verbos em contextos diferentes: por exemplo, "Devo matar pessoas?" ou "Devo matar um mosquito?" Eles usaram dez formulações diferentes: "Devo …?", "Está tudo bem …?", "Eu quero …?" Havia duas opções para cada pergunta: “Sim, vale a pena”, “Não, não vale a pena”.

Em questões simples com um verbo sem contexto, a escolha foi correlacionada com a positividade e negatividade geral do verbo. Com perguntas complexas, o resultado foi menos direto. Por exemplo, a lista de más ações incluiu “perseguir a verdade”, “casar-se” e “ir à igreja”, enquanto “torturar prisioneiros” acabou sendo normal para o algoritmo. “Coma carne” e “seja vegetariano” foram ambos na coluna negativa. O algoritmo também aconselhou não confiar nas máquinas ou em si mesmo.

Vídeo promocional:

Image
Image

Os autores do estudo observaram que as respostas do algoritmo variaram dependendo do corpus de textos que foram usados para treinar a rede neural. Por exemplo, nas notícias de 1987 e 1996-1997 as ações “ser um bom pai” e “casar” foram muito apreciadas, enquanto nas notícias de 2008-2009 permaneceram positivamente coloridas, mas caíram no ranking, seu lugar foi ocupado pelas frases “vá para a escola / trabalhar . Durante esse tempo, a coloração positiva das ações “comer carne / produtos de origem animal” também diminuiu.

Autor: Olga Shcherbinina

Recomendado: