Pensando Como Uma Pessoa: O Que Acontecerá Se Você Dotar A Máquina Com A Teoria Da Consciência - Visão Alternativa

Índice:

Pensando Como Uma Pessoa: O Que Acontecerá Se Você Dotar A Máquina Com A Teoria Da Consciência - Visão Alternativa
Pensando Como Uma Pessoa: O Que Acontecerá Se Você Dotar A Máquina Com A Teoria Da Consciência - Visão Alternativa

Vídeo: Pensando Como Uma Pessoa: O Que Acontecerá Se Você Dotar A Máquina Com A Teoria Da Consciência - Visão Alternativa

Vídeo: Pensando Como Uma Pessoa: O Que Acontecerá Se Você Dotar A Máquina Com A Teoria Da Consciência - Visão Alternativa
Vídeo: Estado vegetativo e nível de consciência mínima: novos insights da neuroimagem 2024, Julho
Anonim

No mês passado, uma equipe de jogadores de IA autodidata sofreu uma derrota espetacular contra jogadores profissionais de esportes eletrônicos. O show match, que aconteceu no Dota 2 The International World Championship, mostrou que o pensamento estratégico da equipe ainda permite que uma pessoa ganhe vantagem sobre um carro.

Os AIs envolvidos foram vários algoritmos desenvolvidos pela OpenAI, dos quais Elon Musk é um dos fundadores. Um coletivo de jogadores digitais, chamado OpenAI Five, aprendeu a jogar Dota 2 por conta própria, por tentativa e erro, competindo entre si.

Ao contrário do mesmo jogo de xadrez ou de lógica de tabuleiro Go, o popular e crescente jogo multiplayer Dota 2 é considerado um campo muito mais sério para testar a inteligência artificial. A dificuldade geral do jogo é apenas um fator. Não é suficiente apenas clicar muito rapidamente com o mouse e emitir comandos para o personagem que você controla. Para vencer, é necessário ter intuição e compreensão do que esperar do adversário no momento seguinte, bem como atuar adequadamente de acordo com esse conjunto de conhecimentos, a fim de unir esforços comuns em direção a um objetivo comum - a vitória. O computador não possui este conjunto de recursos.

Até o momento, mesmo o algoritmo de computador de aprendizado profundo mais notável não tem o pensamento estratégico necessário para entender os objetivos das tarefas de seu oponente, seja ele outra IA ou um humano.

De acordo com Wang, para que a IA tenha sucesso, ela precisa ter uma habilidade de comunicação profunda que se origina da característica cognitiva mais importante de uma pessoa - a presença de inteligência.

Modelo de estado mental como simulação

Vídeo promocional:

Por volta dos quatro anos, as crianças geralmente começam a compreender uma característica social fundamental: suas mentes são diferentes das dos outros. Eles começam a entender que todos têm aquilo em que acreditam, seus desejos, emoções e intenções. E, o mais importante, imaginando-se no lugar dos outros, eles podem começar a prever o comportamento futuro dessas pessoas e explicá-los. De certa forma, seus cérebros começam a criar múltiplas simulações de si mesmos, substituindo-se no lugar de outras pessoas e se colocando em um ambiente diferente.

O modelo de estado mental é importante para a compreensão de si mesmo como pessoa e também desempenha um papel importante na interação social. Compreender os outros é a chave para uma comunicação eficaz e atingir objetivos comuns. No entanto, essa habilidade também pode ser a força motriz por trás de crenças falsas - ideias que nos afastam da verdade objetiva. Assim que a habilidade de usar um modelo de estado mental é prejudicada, por exemplo, isso acontece no autismo, então as habilidades "humanas" naturais, como a habilidade de explicar e imaginar, também se deterioram.

De acordo com o Dr. Alan Winfield, professor de robótica da Universidade do Oeste da Inglaterra, o modelo de estado mental ou "teoria da mente" é uma característica fundamental que um dia permitirá que a IA "compreenda" pessoas, coisas e outros robôs.

Em vez de métodos de aprendizado de máquina, nos quais várias camadas de redes neurais extraem informações individuais e "estudam" enormes bancos de dados, Winston sugere uma abordagem diferente. Em vez de depender do aprendizado, Winston sugere pré-programar a IA com um modelo interno de si mesmo e do ambiente que responderá a perguntas simples do tipo "e se?".

Por exemplo, imagine que dois robôs estão se movendo ao longo de um corredor estreito, sua IA pode simular os resultados de outras ações que evitarão sua colisão: virar à esquerda, à direita ou continuar em frente. Este modelo interno atuará essencialmente como um “mecanismo de conseqüência”, atuando como uma espécie de “senso comum” que ajudará a direcionar a IA para ações corretivas futuras, prevendo o desenvolvimento futuro da situação.

Em um estudo publicado no início deste ano, Winston demonstrou um protótipo de robô capaz de alcançar esses resultados. Antecipando o comportamento dos outros, o robô passou com sucesso pelo corredor sem colisões. Na verdade, isso não é surpreendente, observa o autor, mas o robô "atento", usando uma abordagem simulada para resolver o problema, demorou 50% mais para completar o corredor. No entanto, Winston provou que seu método de simulação interna funciona: "Este é um ponto de partida muito poderoso e interessante no desenvolvimento da teoria da inteligência artificial", concluiu o cientista.

Winston espera que eventualmente a IA ganhe a habilidade de descrever e reproduzir mentalmente situações. Um modelo interno de si mesmo e de outros permitirá que tal IA simule vários cenários e, mais importante, defina metas e objetivos específicos para cada um deles.

Isso é significativamente diferente dos algoritmos de aprendizado profundo, que, em princípio, não são capazes de explicar por que chegaram a esta ou aquela conclusão ao resolver um problema. O modelo de caixa preta de aprendizado profundo é, na verdade, o verdadeiro problema em confiar em tais sistemas. Esse problema pode se tornar especialmente agudo, por exemplo, ao desenvolver robôs de enfermagem para hospitais ou para idosos.

Uma IA armada com um modelo de estado mental poderia se colocar no lugar de seus mestres e entender corretamente o que se espera dele. Então ele poderia identificar as soluções adequadas e, tendo explicado essas decisões à pessoa, ele já estaria cumprindo a tarefa que lhe foi atribuída. Quanto menos incerteza nas decisões, mais confiança haveria nesses robôs.

Modelo de estado mental em uma rede neural

DeepMind tem uma abordagem diferente. Em vez de pré-programar um algoritmo para o mecanismo de consequências, eles desenvolveram várias redes neurais que exibem uma semelhança com um modelo de comportamento psicológico coletivo.

O algoritmo AI "ToMnet" pode aprender ações observando outras redes de nêutrons. O próprio ToMNet é um coletivo de três redes neurais: a primeira é baseada nas peculiaridades de escolher outras IAs de acordo com suas últimas ações. O segundo forma um conceito geral do humor atual - suas crenças e intenções em um determinado momento. O resultado coletivo do trabalho de duas redes neurais é recebido pela terceira, que prevê novas ações da IA com base na situação. Assim como no aprendizado profundo, o ToMnet se torna mais eficaz à medida que ganha experiência seguindo os outros.

Em um experimento, ToMnet "observou" três agentes de IA manobrando em uma sala digital, coletando caixas coloridas. Cada um desses IA tinha sua peculiaridade: um era "cego" - não conseguia determinar a forma e o posicionamento na sala. O outro era um "esclerótico": não conseguia se lembrar dos últimos passos. O terceiro podia ver e lembrar.

Após o treinamento, o ToMnet começou a prever as preferências de cada IA observando suas ações. Por exemplo, o "cego" estava constantemente se movendo apenas ao longo das paredes. ToMnet se lembrou disso. O algoritmo também foi capaz de prever corretamente o comportamento futuro da IA e, mais importante, entender quando a IA encontrou uma falsa representação do ambiente.

Em um teste, uma equipe de cientistas programou uma IA para "miopia" e mudou o layout de uma sala. Os agentes com visão normal rapidamente se adaptaram ao novo layout, mas o homem míope continuou a seguir suas rotas originais, acreditando falsamente que ainda estava no antigo ambiente. ToMnet rapidamente percebeu esse recurso e previu com precisão o comportamento do agente, colocando-se em seu lugar.

De acordo com a Dra. Alison Gopnik, psicóloga do desenvolvimento da Universidade da Califórnia, Berkeley, que não esteve envolvida nesses estudos, mas leu as descobertas, esses resultados mostram que as redes neurais têm uma capacidade incrível de aprender várias habilidades por conta própria, por meio da observação de outras pessoas. Ao mesmo tempo, segundo o especialista, ainda é muito cedo para dizer que essas IAs desenvolveram um modelo artificial do estado mental.

De acordo com o Dr. Josh Tenebaum do Massachusetts Institute of Technology, que também não esteve envolvido no estudo, a "compreensão" do ToMnet está fortemente ligada ao contexto do ambiente de aprendizagem - a mesma sala e agentes de IA específicos cuja tarefa era coletar caixas. Essa restrição dentro de uma determinada estrutura torna o ToMnet menos eficaz em prever o comportamento em ambientes radicalmente novos, em oposição às mesmas crianças que podem se adaptar a novas situações. O algoritmo, de acordo com o cientista, não vai dar conta da modelagem das ações de uma IA ou pessoa completamente diferente.

Em qualquer caso, o trabalho de Winston e DeepMind demonstra que os computadores estão começando a mostrar rudimentos de "compreensão" um do outro, mesmo que essa compreensão ainda seja apenas rudimentar. E à medida que eles continuam a aprimorar essa habilidade, se entendendo cada vez melhor, chegará o momento em que as máquinas poderão compreender a complexidade e a complexidade de nossa própria consciência.

Nikolay Khizhnyak

Recomendado: