O Cientista Disse Que 70 Anos No Campo Da Pesquisa Em IA Foram Praticamente Perdidos - Visão Alternativa

Índice:

O Cientista Disse Que 70 Anos No Campo Da Pesquisa Em IA Foram Praticamente Perdidos - Visão Alternativa
O Cientista Disse Que 70 Anos No Campo Da Pesquisa Em IA Foram Praticamente Perdidos - Visão Alternativa

Vídeo: O Cientista Disse Que 70 Anos No Campo Da Pesquisa Em IA Foram Praticamente Perdidos - Visão Alternativa

Vídeo: O Cientista Disse Que 70 Anos No Campo Da Pesquisa Em IA Foram Praticamente Perdidos - Visão Alternativa
Vídeo: Is Genesis History? - Watch the Full Film 2024, Pode
Anonim

A maior lição a ser aprendida com 70 anos de pesquisa em IA é que os métodos gerais que usam computação são, em última análise, os mais eficientes - e por uma ampla margem. A razão final para isso é a Lei de Moore. Ou melhor, sua generalização: a redução contínua e exponencial do custo dos processadores de computação. Essa "lição amarga" foi compartilhada por Richard Sutton, um cientista da computação canadense. Além disso - da primeira pessoa.

Image
Image

Por que a pesquisa de inteligência artificial está paralisada há 70 anos?

A maioria das pesquisas de IA foi conduzida como se os cálculos disponíveis para o agente fossem persistentes (e, neste caso, usar o conhecimento humano seria uma das únicas maneiras de melhorar o desempenho). Mas com o tempo - muito mais do que as necessidades de um projeto de pesquisa típico - inevitavelmente, muito mais computação se torna disponível. Em busca de melhorias que possam ajudar no curto prazo, os cientistas buscam maximizar o conhecimento humano nessa área, mas a única coisa que importa no longo prazo é o uso crescente da computação. Esses dois aspectos não devem se opor, mas na prática sim. O tempo gasto em um deles não é igual ao tempo gasto no outro. Existem obrigações psicológicas de investir em uma abordagem ou outra. E a abordagem do conhecimento humano tende a complicar os métodos de tal forma que eles se tornam menos adequados para tirar vantagem dos métodos gerais que usam computação.

Tem havido muitos exemplos de pesquisadores de IA compreendendo tardiamente essa lição amarga. Será instrutivo considerar alguns dos exemplos mais proeminentes.

No xadrez de computador, os métodos que derrotaram o campeão mundial Kasparov em 1997 foram baseados em pesquisas profundas e massivas. Na época, eles eram vistos com consternação pela maioria dos pesquisadores de xadrez por computador que usavam métodos baseados na compreensão humana da estrutura específica do xadrez. Quando uma abordagem mais simples e baseada em pesquisa com hardware e software especializados provou ser muito mais eficaz, os pesquisadores que se basearam na compreensão humana do xadrez não admitiram a derrota. Eles disseram: “Desta vez, a abordagem da força bruta pode ter vencido, mas não se tornará uma estratégia geral e certamente as pessoas não jogam xadrez dessa forma. Esses cientistas queriam que métodos baseados em humanos vencessem e ficaram muito desapontados quando isso não aconteceu.

Vídeo promocional:

Um quadro semelhante de progresso de pesquisa foi visto no computador, mas com um atraso de mais 20 anos. Inicialmente, grandes esforços foram feitos para evitar a pesquisa usando conhecimento humano ou jogabilidade, mas todos esses esforços foram desnecessários ou ainda piores uma vez que a pesquisa foi aplicada de forma eficaz e em grande escala. Também era importante usar o aprendizado no processo de jogo independente para aprender a função de valor (como era o caso em muitos outros jogos e até no xadrez, apenas o aprendizado não desempenhou um grande papel no programa de 1997, que venceu o campeão mundial pela primeira vez). Aprender a brincar consigo mesmo, aprender como um todo, é como uma busca que permite aplicar enormes matrizes de cálculos. Pesquisa e aprendizado são duas das classes mais importantes de técnicas que envolvem enormes quantidades de computação na pesquisa de IA. No computador váComo no xadrez por computador, os esforços iniciais dos pesquisadores foram direcionados ao uso da compreensão humana (de forma que houvesse menos pesquisa), e muito mais sucesso foi alcançado apenas muito mais tarde com o uso da pesquisa e do aprendizado.

No campo do reconhecimento de voz, uma competição patrocinada pela DARPA foi realizada na década de 1970. Os participantes apresentaram vários métodos que tiraram proveito do conhecimento humano - conhecimento de palavras ou fonemas, do trato vocal humano e assim por diante. Do outro lado das barricadas, havia métodos mais novos, de natureza estatística e mais computacionais, baseados em modelos ocultos de Markov (HMM). Mais uma vez, os métodos estatísticos venceram os métodos baseados no conhecimento. Isso levou a grandes mudanças em todo o processamento de linguagem natural que foram gradualmente introduzidas ao longo das décadas, até que, eventualmente, as estatísticas e a computação começaram a dominar o campo. O recente aumento do aprendizado profundo em reconhecimento de fala é o último passo nessa direção consistente. O aprendizado profundo depende ainda menos do conhecimento humano e usa ainda mais computação, junto com o treinamento em grandes conjuntos de amostras, e produz sistemas de reconhecimento de fala incríveis.

Richard Sutton, cientista da computação canadense
Richard Sutton, cientista da computação canadense

Richard Sutton, cientista da computação canadense.

Como nos jogos, os cientistas sempre tentaram criar sistemas que funcionassem como eles imaginavam em suas cabeças - eles tentaram colocar esse conhecimento em seus sistemas - mas tudo saiu extremamente improdutivo, os cientistas estavam apenas perdendo tempo - devido à Lei de Moore - cálculos cada vez mais volumosos tornaram-se disponíveis e encontraram excelentes aplicações.

Uma imagem semelhante foi no campo da visão computacional. Os primeiros métodos foram percebidos como uma busca por determinados contornos, cilindros generalizados, ou usando os recursos de SIFT (transformação invariante de escala de recursos). Mas hoje tudo isso foi jogado na fornalha. As redes neurais modernas de aprendizado profundo usam apenas o conceito de convolução e certos invariantes e têm um desempenho muito melhor.

Esta é uma grande lição.

Para onde quer que olhemos, continuamos cometendo os mesmos erros em todos os lugares. Para ver isso e lidar com isso de forma eficaz, você precisa entender por que esses erros são tão atraentes. Precisamos aprender a lição amarga de que construir como pensamos a partir de como pensamos não funcionará a longo prazo. Uma lição amarga com base na observação histórica mostra que: 1) Os pesquisadores de IA muitas vezes tentam inserir conhecimento em seus agentes; 2) sempre ajudou no curto prazo e trouxe satisfação aos cientistas; 3) mas no longo prazo, tudo parou e atrapalhou o progresso; 4) o progresso disruptivo inevitavelmente veio com a abordagem oposta, com base na computação de escala por meio de pesquisa e aprendizado. O sucesso tinha um sabor amargo e muitas vezes não era totalmente absorvido.porque é o sucesso da computação, não o sucesso das abordagens centradas no ser humano.

Uma coisa a aprender com essa lição amarga é o tremendo poder dos métodos de uso geral, métodos que continuam a crescer com o crescimento da computação, mesmo quando a computação disponível se torna muito grande. Dois métodos que parecem escalar arbitrariamente dessa forma são pesquisar e aprender.

A segunda coisa a ser aprendida com essa lição amarga é que o conteúdo real da mente é extremamente e desnecessariamente complexo; devemos parar de tentar encontrar maneiras simples de dar sentido ao conteúdo da mente, semelhantes a maneiras simples de dar sentido ao espaço, objetos, agentes múltiplos ou simetrias. Todos eles fazem parte de um mundo externo arbitrariamente complexo. Não devemos tentar construir sobre eles, porque sua complexidade é infinita; devemos construir em meta-métodos que podem encontrar e capturar essa complexidade arbitrária. Esses métodos podem encontrar boas aproximações, mas a busca por eles deve ser realizada por nossos métodos, não por nós. Precisamos de agentes de IA que possam descobrir da mesma forma que nós, e não conter o que descobrimos. Construir com base em nossas descobertas apenas complica o processo de descoberta e pesquisa.

Ilya Khel

Recomendado: