Como Você Cria Um Robô Que Quer Mudar O Mundo? - Visão Alternativa

Índice:

Como Você Cria Um Robô Que Quer Mudar O Mundo? - Visão Alternativa
Como Você Cria Um Robô Que Quer Mudar O Mundo? - Visão Alternativa

Vídeo: Como Você Cria Um Robô Que Quer Mudar O Mundo? - Visão Alternativa

Vídeo: Como Você Cria Um Robô Que Quer Mudar O Mundo? - Visão Alternativa
Vídeo: O Futuro | O Incrível Mundo de Gumball | Cartoon Network 2024, Setembro
Anonim

O cientista da computação Christoph Solge está tentando eliminar a necessidade de regras que regem o comportamento dos robôs. Sua estratégia é dar a eles um objetivo: nos tornar mais poderosos. Christophe trabalha no Game Innovation Lab da New York University. Sasha Maslov entrevistou Sold para a Quanta Magazine, da qual ficamos sabendo que talvez não valha a pena tentar conter o fluxo imparável da singularidade tecnológica.

As famosas Três Leis da Robótica de Isaac Asimov - limitando o comportamento dos andróides e autômatos para manter a humanidade segura - também estavam inacabadas. Essas leis apareceram pela primeira vez na história de Asimov em 1942, e depois em obras clássicas como "Eu, Robô" e soam mais ou menos assim:

1. Um robô não pode prejudicar uma pessoa ou, por sua inação, permitir que uma pessoa seja ferida.

2. O robô deve obedecer às ordens dadas pelas pessoas, se estas não contradizerem a Primeira Lei.

3. Um robô deve defender sua existência, se esta proteção não contradizer a Primeira ou Segunda Lei.

Claro, nessas leis podem-se encontrar muitas contradições e lacunas (que, de fato, o próprio Azimov usou). Em nossa era atual de software avançado com aprendizado de máquina e robótica autônoma, definir e implementar a ética de ferro da inteligência artificial tornou-se um desafio urgente para organizações como o Machine Intelligence Research Institute e OpenAI.

Christoph Salge adotou uma abordagem diferente. Em vez de impor definições filosóficas de cima para baixo de como os agentes artificiais devem ou não se comportar, Salge e seu colega Daniel Polani estão explorando o caminho de baixo para cima, ou "o que o robô deve fazer primeiro", como escreveram em seu artigo "Empowerment como um substituto para as três leis da robótica." Empowerment, um conceito nascido na intersecção da cibernética e da psicologia, descreve a motivação intrínseca de um agente para resistir e trabalhar no ambiente ao mesmo tempo. “Como organismo, ele quer sobreviver. Ele quer deixar uma marca no mundo”, explica Salge. O aspirador de pó do Roomba, programado para procurar uma estação de carregamento quando as baterias estiverem fracas, é um exemplo rudimentar de "capacitado": para continuar a funcionar no mundo,ele deve receber uma carga e continuar sua própria existência, isto é, sobreviver.

Empowerment pode soar como uma receita para o mesmo resultado que os defensores da inteligência artificial segura como Nick Bostrom temem: um sistema autônomo poderoso, preocupado apenas com o interesse próprio, e enlouquecendo no processo. Mas Salge, que estuda as interações sociais homem-máquina, pergunta: O que acontece se um agente com poder “também dá poder a outro? O robô não precisa apenas querer permanecer funcionando, mas também apoiar seu parceiro humano."

Vídeo promocional:

Solge e Polanyi perceberam que a teoria da informação oferecia uma maneira de traduzir essa expansão mútua em uma estrutura matemática para um agente artificial não filosofante. “Uma das desvantagens das três leis da robótica é que elas são baseadas na linguagem, e a linguagem é altamente ambígua”, diz Salge. "Estamos tentando encontrar algo que realmente possa ser feito."

Alguns tecnólogos acreditam que a IA é uma ameaça importante, até mesmo catastrófica, à existência humana. E você?

Eu vou me abster. Então, eu realmente acredito que agora existe um medo de robôs e da crescente influência da IA. Mas acho que, no curto prazo, provavelmente estaremos mais preocupados com a possível mudança de empregos, o processo de tomada de decisão, a perda da democracia, a perda da privacidade. Não sei a probabilidade de uma IA imparável surgir em breve. Mas mesmo que a IA deva supervisionar o sistema de saúde e emitir prescrições, precisamos pensar sobre as questões éticas que vêm com ela.

Como o conceito de empoderamento pode nos ajudar a lidar com esses desafios?

Acho que a ideia de empoderamento preenche um nicho. Isso não permitirá que o agente deixe a pessoa morrer, mas, uma vez que você consiga manter esse limite, apoiará a intenção de criar oportunidades adicionais para a pessoa se expressar e influenciar o mundo. Em um dos livros de Asimov, os robôs acabarão simplesmente colocando todos os humanos em recipientes seguros. Isso seria indesejável. Se nossa capacidade de influenciar o mundo continuar a melhorar, acho que será uma meta muito mais interessante de alcançar.

Você testou suas ideias de agente virtual em um ambiente de videogame. O que aconteceu?

O agente, motivado por seus próprios direitos estendidos, se esquivará do projétil e não cairá na cova, em geral, evitará qualquer situação que possa acarretar em perda de mobilidade, morte ou danos de forma a reduzir sua eficiência operacional. Ele vai apenas esperar.

Em conjunto com o jogador humano, também dotado de direitos aprimorados, vimos que o robô virtual manteria uma certa distância para não impedir o movimento humano. Ele não vai bloquear você, ele não vai ficar no corredor para que você não possa passar. Ele ficará o mais perto possível de você para ajudá-lo. Isso leva a um comportamento em que ele pode tanto tomar a iniciativa quanto seguir a de outra pessoa.

Por exemplo, criamos um cenário em que tínhamos uma barreira de laser que é perigosa para humanos, mas segura para um robô. Se a pessoa neste jogo se aproximar dos lasers, o robô tem mais incentivos para bloquear o laser. O estímulo é intensificado quando a pessoa fica diretamente em frente à barreira, como se pretendesse cruzá-la. E o robô realmente bloqueia o laser, ficando na frente da pessoa.

Esses agentes exibiram algum comportamento não intencional semelhante às três leis do livro de Asimov?

O comportamento foi bom no início. Por exemplo, um robô virtual interceptou oponentes que tentaram matá-lo. De vez em quando, ele saltaria sob uma bala se essa fosse a única maneira de salvá-lo. Mas o que nos surpreendeu especialmente desde o início foi que ele também tinha muito medo da pessoa.

A razão para isso se deve ao seu modelo "míope": na verdade, ele analisa como sequências de certas ações em duas ou três etapas podem afetar o mundo, tanto para você quanto para ele. Portanto, na primeira etapa, programamos que o jogador aja de forma aleatória. Mas, na prática, isso resultou no fato de o agente tratar a pessoa como uma espécie de psicopata, que poderia, por exemplo, atirar no agente a qualquer momento. Portanto, o agente teve que escolher com muito, muito cuidado a posição em que a pessoa não poderia matá-lo.

Precisávamos consertar isso, então modelamos a chamada suposição de confiança. Basicamente, um agente acompanhante age partindo do pressuposto de que a pessoa escolherá apenas aquelas ações que não limitarão os direitos estendidos do próprio agente - talvez este seja um modelo mais adequado para o acompanhante.

Também notamos que, se você tivesse, digamos, 10 pontos de saúde no jogo, o companheiro não se importaria muito se você perdesse oito ou nove desses pontos - ele poderia até atirar em você uma vez, só por diversão. E então percebemos que existe uma lacuna entre o mundo em que vivemos e o modelo de um jogo de computador. Assim que modelamos as limitações de capacidade causadas pela perda de saúde, o problema desapareceu. Também poderia ser resolvido com a criação de um modelo que não fosse tão míope, que pudesse calcular ações alguns passos a mais no futuro. Se o agente pudesse olhar mais longe no futuro, ele veria que ter mais pontos de saúde poderia ser benéfico para eventos futuros.

Levando em consideração que alterar o número de pontos de saúde não afeta de forma alguma meus direitos estendidos, o agente decide: "Eu atiro nele, não atiro - qual é a diferença?" E às vezes ele dispara. O que, claro, é um problema. Não quero tiros aleatórios nos jogadores. Adicionamos uma correção para deixar o robô virtual um pouco mais preocupado com sua condição do que com a sua própria.

Como você torna esses conceitos precisos?

Se considerarmos os agentes como sistemas de controle, eles podem ser decompostos em componentes de informação: no mundo, algo está acontecendo e de uma forma ou de outra preocupa você. Não estamos falando sobre informações como coisas que você percebe, mas como influências de qualquer tipo - pode ser uma substância, algo fluindo entre o mundo e você. Pode haver temperatura ou nutrientes em seu corpo. Qualquer coisa que cruze a fronteira entre o mundo e o agente carrega informações em si. Da mesma forma, um agente pode influenciar o mundo externo de várias maneiras, também enviando informações para ele.

Você pode considerar este fluxo como a largura de banda do canal, este é um conceito da teoria da informação. Você pode ter amplos poderes, direitos estendidos, se for capaz de realizar ações diferentes que conduzam a resultados diferentes. Se algo der errado, você perderá sua autoridade, pois a perda de capacidade corresponde a uma diminuição quantitativa da largura de banda entre você e o ambiente. Essa é a ideia principal.

Quanto um agente precisa saber para que seus poderes estendidos tenham efeito total?

Direitos estendidos têm a vantagem de poderem ser aplicados mesmo quando você não tem total conhecimento. O agente realmente precisa de um modelo de como suas ações afetarão o mundo, mas ele não precisa de uma compreensão completa do mundo e de todas as suas sutilezas. Ao contrário de algumas abordagens que tentam modelar tudo no mundo o máximo possível, no nosso caso você só precisa descobrir como suas ações afetam sua própria percepção. Você não precisa aprender tudo sobre tudo; você só precisa de um agente que explore o mundo. Ele faz algo e tenta entender como suas ações afetam o mundo. O modelo cresce e o agente entende cada vez melhor onde se estendem os limites de sua autoridade.

Você o testou em um ambiente virtual. Por que não no mundo real?

O principal obstáculo para dimensionar este modelo e colocá-lo em um robô real é a dificuldade de calcular a largura de banda de um agente e de uma pessoa em um ambiente tão rico como o mundo real por muito tempo. Todos esses processos ainda não se tornaram eficazes. Estou otimista, mas até agora esse problema permanece puramente computacional. Portanto, verificamos o funcionamento do sistema em um jogo de computador, de forma simplificada.

Parece que o empoderamento, idealmente, tornará nossas máquinas cães de serviço poderosos

Eu até conheço alguns técnicos em robôs que deliberadamente modelam o comportamento de um companheiro baseado em cachorro. Acho que se os robôs nos tratarem como cães, neste futuro todos podemos nos dar bem.

Ilya Khel

Recomendado: