Imediatamente quando o Dr. Blake Richards ouviu falar sobre aprendizado profundo, ele percebeu que estava enfrentando mais do que apenas um método que revolucionaria a inteligência artificial. Ele percebeu que estava olhando para algo fundamental do cérebro humano. Era o início dos anos 2000 e Richards estava ministrando um curso na Universidade de Toronto com Jeff Hinton. Hinton, que estava por trás da criação do algoritmo que conquistou o mundo, recebeu um curso introdutório ao seu método de ensino, inspirado no cérebro humano.
As palavras-chave aqui são "inspiradas no cérebro". Apesar da convicção de Richards, a aposta jogou contra ele. O cérebro humano, como se viu, não tem uma função importante programada em algoritmos de aprendizado profundo. Superficialmente, esses algoritmos violavam fatos biológicos básicos já comprovados por neurocientistas.
Mas e se o aprendizado profundo e o cérebro forem realmente compatíveis?
E assim, em um novo estudo publicado na eLife, Richards, trabalhando com DeepMind, propôs um novo algoritmo baseado na estrutura biológica dos neurônios no neocórtex. O córtex, o córtex cerebral, é o lar de funções cognitivas superiores, como raciocínio, previsão e pensamento flexível.
A equipe combinou seus neurônios artificiais em uma rede em camadas e a desafiou para a tarefa da visão computacional clássica - identificar números escritos à mão.
O novo algoritmo fez um excelente trabalho. Mas outra coisa é importante: ele analisou exemplos de aprendizagem da mesma forma que os algoritmos de aprendizagem profunda o fazem, mas foi construído inteiramente na biologia fundamental do cérebro.
"O aprendizado profundo é possível em uma estrutura biológica", concluíram os cientistas.
Como esse modelo é atualmente uma versão para computador, Richards espera passar o bastão para neurocientistas experimentais que possam testar se esse algoritmo funciona em um cérebro real.
Vídeo promocional:
Nesse caso, os dados podem ser enviados a cientistas da computação para desenvolver algoritmos massivamente paralelos e eficientes nos quais nossas máquinas funcionarão. Este é o primeiro passo para a fusão das duas áreas numa “dança virtuosa” de descoberta e inovação.
Encontrando o bode expiatório
Embora você provavelmente tenha ouvido que a IA recentemente venceu o melhor dos melhores em Go, você mal sabe exatamente como os algoritmos por trás dessa IA funcionam.
Em suma, o aprendizado profundo é baseado em uma rede neural artificial com "neurônios" virtuais. Como um arranha-céu alto, a rede é estruturada em uma hierarquia: neurônios de baixo nível processam entrada - por exemplo, barras horizontais ou verticais que compõem o número 4 - e neurônios de alto nível processam aspectos abstratos do número 4.
Para treinar a rede, você dá exemplos do que está procurando. O sinal se propaga pela rede (sobe os degraus do prédio), e cada neurônio tenta enxergar algo fundamental no trabalho dos “quatro”.
Conforme as crianças aprendem coisas novas, a rede não vai bem no início. Ela distribui tudo que, em sua opinião, parece o número quatro - e você obtém imagens no espírito de Picasso.
Mas é exatamente assim que o aprendizado ocorre: o algoritmo combina a saída com a entrada ideal e calcula a diferença entre as duas (leia-se: erros). Os erros "se propagam de volta" pela rede, treinando cada neurônio, dizem eles, não é isso que você está procurando, olhe melhor.
Após milhões de exemplos e repetições, a web começa a funcionar perfeitamente.
O sinal de erro é extremamente importante para o aprendizado. Sem uma "retropropagação de erro" efetiva, a rede não saberá quais de seus neurônios estão errados. Em busca de um bode expiatório, a inteligência artificial se aprimora.
O cérebro também faz isso. Mas como? Não temos ideia.
Beco sem saída biológico
O óbvio é que a solução de aprendizado profundo não funciona.
A retropropagação de um erro é um recurso extremamente importante. Requer uma certa infraestrutura para funcionar corretamente.
Primeiro, cada neurônio da rede deve receber uma notificação de erro. Mas, no cérebro, os neurônios estão conectados a apenas alguns (se houver) parceiros downstream. Para que a retropropagação funcione no cérebro, os neurônios nos primeiros níveis devem perceber informações de bilhões de conexões nos canais downstream - e isso é biologicamente impossível.
E, embora alguns algoritmos de aprendizado profundo adaptem uma forma local de retropropagação de erros - essencialmente entre neurônios - isso requer que suas conexões de ida e volta sejam simétricas. Nas sinapses do cérebro, isso quase nunca acontece.
Algoritmos mais modernos adaptam uma estratégia ligeiramente diferente implementando um caminho de feedback separado que ajuda os neurônios a encontrar erros localmente. Embora seja biologicamente mais viável, o cérebro não possui uma rede de computação separada dedicada a encontrar bodes expiatórios.
Mas possui neurônios com estruturas complexas, em contraste com as "bolas" homogêneas que são usadas atualmente no aprendizado profundo.
Redes de ramificação
Os cientistas se inspiram nas células piramidais que preenchem o córtex humano.
“A maioria desses neurônios tem o formato de árvores, com suas 'raízes' profundamente no cérebro e 'galhos' saindo à superfície”, diz Richards. "Notavelmente, as raízes recebem um conjunto de entradas e os ramos são diferentes."
É curioso, mas a estrutura dos neurônios frequentemente acaba sendo "exatamente da maneira que é necessária" para resolver com eficácia um problema computacional. Pegue o processamento sensorial, por exemplo: as partes inferiores dos neurônios piramidais estão onde deveriam estar para receber informações sensoriais e as partes superiores estão convenientemente posicionadas para transmitir erros por meio de feedback.
Essa estrutura complexa poderia ser uma solução evolutiva para lidar com o sinal errado?
Os cientistas criaram uma rede neural multicamadas com base em algoritmos anteriores. Mas, em vez de neurônios homogêneos, eles deram a ela neurônios nas camadas do meio - imprensados entre a entrada e a saída - semelhantes aos reais. Aprendendo com números manuscritos, o algoritmo teve um desempenho muito melhor do que uma rede de camada única, apesar da ausência da retropropagação clássica do erro. As próprias estruturas celulares podem identificar o erro. Então, no momento certo, o neurônio combinou as duas fontes de informação para encontrar a melhor solução.
Há uma base biológica para isso: os neurocientistas sabem há muito tempo que as ramificações de entrada de um neurônio realizam cálculos locais que podem ser integrados aos sinais de retropropagação das ramificações de saída. Mas não sabemos se o cérebro realmente funciona dessa maneira - então Richards contratou neurocientistas para descobrir.
Além disso, essa rede lida com o problema de maneira semelhante ao método tradicional de aprendizado profundo: ela usa uma estrutura em camadas para extrair ideias progressivamente mais abstratas sobre cada número.
“Esta é uma característica do aprendizado profundo”, explicam os autores.
Cérebro de aprendizagem profunda
Sem dúvida, haverá mais reviravoltas nesta história, conforme os cientistas da computação estão trazendo mais detalhes biológicos para os algoritmos de IA. Richards e sua equipe analisam uma função preditiva de cima para baixo, em que os sinais de níveis superiores afetam diretamente como os níveis inferiores respondem à entrada.
O feedback das camadas superiores não melhora apenas a sinalização de erro; também pode estimular os neurônios de processamento inferior a ter um desempenho "melhor" em tempo real, diz Richards. Até agora, a rede não superou outras redes não biológicas de aprendizagem profunda. Mas não importa.
"O aprendizado profundo teve um grande impacto na IA, mas até agora seu impacto na neurociência foi limitado", dizem os autores do estudo. Agora os neurocientistas terão uma desculpa para conduzir um teste experimental e descobrir se a estrutura dos neurônios está subjacente ao algoritmo natural de aprendizagem profunda. Talvez nos próximos dez anos, uma troca de dados mutuamente benéfica entre neurocientistas e pesquisadores de inteligência artificial comece.
Ilya Khel