Quatro Tipos De Inteligência Artificial: De Robôs A Jato A Criaturas Conscientes - Visão Alternativa

Índice:

Quatro Tipos De Inteligência Artificial: De Robôs A Jato A Criaturas Conscientes - Visão Alternativa
Quatro Tipos De Inteligência Artificial: De Robôs A Jato A Criaturas Conscientes - Visão Alternativa

Vídeo: Quatro Tipos De Inteligência Artificial: De Robôs A Jato A Criaturas Conscientes - Visão Alternativa

Vídeo: Quatro Tipos De Inteligência Artificial: De Robôs A Jato A Criaturas Conscientes - Visão Alternativa
Vídeo: Inteligência Artificial - 4 tipos de IA 2024, Pode
Anonim

É amplamente aceito que, com os últimos avanços na pesquisa de inteligência artificial, máquinas vivas e inteligentes logo estarão no horizonte. Carros entendem comandos de voz, distinguem imagens, dirigem carros e jogam jogos melhor do que nós. Quanto tempo falta esperar até que comecem a andar entre nós?

Um relatório recentemente divulgado da Casa Branca sobre inteligência artificial adota uma postura cética. Diz que nos próximos 20 anos, é improvável que vejamos máquinas "exibindo capacidades intelectuais comparáveis ou superiores aos humanos", mas nos próximos anos "as máquinas alcançarão capacidades humanas para realizar mais e mais tarefas". No entanto, este relatório está faltando algumas coisas importantes.

O pesquisador de inteligência artificial Arend Hintze argumenta que o relatório se concentra exclusivamente no "tipo chato de IA". Ele corta um ramo gigante da pesquisa de IA no meio da frase, como a evolução nos ajuda a desenvolver sistemas de IA cada vez melhores e como os modelos computacionais nos ajudam a compreender a evolução de nossa própria inteligência humana.

O relatório foca, como diz o cientista, as principais ferramentas da IA: aprendizado de máquina e aprendizado profundo. Esse tipo de tecnologia permitiu que os robôs jogassem bem os questionários e superassem os mestres do go. Esses sistemas podem lidar com quantidades colossais de dados e realizar cálculos complexos muito rapidamente. Mas eles estão faltando um elemento que será fundamental na criação das máquinas inteligentes que gostaríamos de ter no futuro.

Precisamos mais do que ensinar máquinas para aprender. Precisamos superar os limites que definem quatro tipos diferentes de inteligência artificial. As barreiras que separam as máquinas de nós - e nós delas.

AI tipo I: máquinas a jato

Os tipos mais básicos de sistemas de IA são altamente reativos e não podem formar memórias ou usar experiências anteriores para informar as decisões atuais. Deep Blue, o supercomputador jogador de xadrez da IBM que derrotou o Grande Mestre Garry Kasparov no final da década de 1990, é um exemplo perfeito desse tipo de máquina.

Vídeo promocional:

O Deep Blue pode identificar peças em um tabuleiro de xadrez e sabe como elas se movem. Ele pode fazer previsões de movimentos, tanto seus quanto de seu oponente. E ele escolhe os movimentos mais ideais possíveis.

No entanto, ele não tem ideia sobre o passado e a memória do que aconteceu. Além da regra específica do xadrez raramente usada de não repetir o mesmo movimento três vezes, o Deep Blue ignora tudo até agora. Ele apenas olha para as peças no tabuleiro de xadrez e escolhe o próximo movimento.

Esse tipo de inteligência inclui um computador que percebe o mundo diretamente e atua com base no que vê. Ele não depende de um conceito interno do mundo. Em seu trabalho, o pesquisador de IA Rodney Brooks argumentou que deveríamos apenas construir essas máquinas. Em sua opinião, os humanos não são muito bons em programar mundos simulados precisos para computadores, como dizem, em criar uma "representação", uma representação do mundo.

As modernas máquinas inteligentes que admiramos ou não têm esse conceito de mundo, ou são muito limitadas e lidam com determinadas tarefas. A inovação no design do Deep Blue não era sobre expandir o número de movimentos possíveis que um computador considera. Em vez disso, os desenvolvedores encontraram uma maneira de estreitar sua visão, para descartar alguns dos movimentos possíveis no futuro, dependendo de como eles são avaliados.

Da mesma forma, AlphaGo Google, que venceu o campeão mundial em Go, não tem como avaliar possíveis movimentos futuros. Seu método de análise é mais sofisticado que o do Deep Blue: ele usa uma rede neural para avaliar o desenrolar do jogo.

Essas técnicas melhoram as capacidades dos sistemas de IA, fazem certos jogos funcionarem melhor, mas não são fáceis de mudar ou aplicar a outras situações. Esses tipos de imaginação de computador não têm um conceito do mundo como um todo - o que significa que não podem ir além da execução das tarefas específicas para as quais foram feitos e são facilmente enganados.

Eles não podem participar interativamente do mundo, e gostaríamos de ver apenas esses sistemas de IA um dia. Em vez disso, as máquinas se comportarão exatamente como sempre fazem quando enfrentam a mesma situação. Se queremos tornar o sistema de IA confiável e confiável, isso é uma coisa boa: você gostaria que seu veículo autônomo fosse confiável. Mas se queremos que as máquinas interajam conosco e com o mundo, isso é ruim. Os sistemas de IA mais simples nunca ficam entediados, eles não podem estar interessados ou chateados.

AI tipo II: memória limitada

O tipo II inclui máquinas que podem olhar para o passado. Os carros autônomos já são um pouco capazes disso. Por exemplo, eles observam a velocidade e direção de outros veículos. Isso não pode ser feito de uma vez, para isso você precisa identificar objetos específicos e observá-los ao longo do tempo.

Essas observações são adicionadas às representações pré-programadas do mundo dos carros autônomos, que incluem marcações rodoviárias, semáforos e outros elementos críticos. Eles são conectados quando o carro decide mudar de faixa e não colidir com outro.

Mas essas informações simples sobre o passado são apenas temporárias. Eles não serão armazenados como parte de uma biblioteca de experiência veicular na qual se pode aprender, como os motoristas humanos, acumulando experiência ao longo dos anos enquanto dirigem.

Como construímos sistemas de IA que constroem representações completas, lembram nossas experiências e aprendem a lidar com novas situações? Brooke estava certa ao dizer que isso é muito difícil de fazer. Talvez valha a pena buscar inspiração na evolução darwiniana?

AI tipo III: teoria da mente

Aqui precisamos fazer uma breve parada e chamar este momento de uma lacuna importante entre as máquinas que temos e as máquinas que gostaríamos de construir no futuro. No entanto, a primeira etapa é ser mais específico sobre as visualizações que as máquinas terão que criar.

As máquinas da classe seguinte, mais avançada, não apenas formam representações do mundo, mas também de outros agentes ou entidades do mundo. Em psicologia, isso é chamado de "teoria da mente" - a compreensão de que pessoas, seres e objetos no mundo podem ter pensamentos e emoções que afetam seu próprio comportamento.

Isso é importante para a forma como nós, humanos, moldamos a sociedade, pois nos fornece interações sociais. Sem entender os motivos e intenções um do outro e sem considerar o que outra pessoa sabe sobre mim ou sobre o ambiente, trabalhar juntos é difícil na melhor das hipóteses e impossível na pior.

Se os sistemas de IA realmente circularem entre nós, eles precisarão entender o que pensamos e sentimos, pelo menos no nível das suposições. E ajuste seu comportamento de acordo.

IV tipo de IA: autoconsciência

O objetivo final do desenvolvimento da inteligência artificial é criar sistemas que possam moldar a autoimagem. Em última análise, os pesquisadores de IA devem não apenas compreender a consciência, mas também criar máquinas com consciência.

Em certo sentido, isso é uma extensão da "teoria da mente" mencionada no tipo anterior de IA. Quando falamos sobre consciência, também queremos dizer autoconsciência. “Eu quero essa coisa” é diferente de “Eu sei que quero essa coisa”. Os seres conscientes são autoconscientes, cientes de seus estados internos e podem antecipar o comportamento ou os sentimentos dos outros. Presumimos que alguém que nos sinaliza no trânsito está com raiva ou impaciente, porque é assim que podemos nos sentir em seu lugar. Sem uma teoria da mente, não poderíamos fazer tais inferências.

Embora provavelmente estejamos longe de construir máquinas autoconscientes, devemos concentrar nossos esforços no caminho da compreensão da memória, do aprendizado e da capacidade de tomar decisões sobre experiências passadas. Este é um passo importante para a compreensão da própria mente humana. E isso é muito importante se quisermos projetar ou desenvolver máquinas que possam não só classificar o que veem à nossa frente, mas também muito mais.

ILYA KHEL

Recomendado: