O Chip MIT Reduziu O Consumo De Energia Da Rede Neural Em 95% - Visão Alternativa

O Chip MIT Reduziu O Consumo De Energia Da Rede Neural Em 95% - Visão Alternativa
O Chip MIT Reduziu O Consumo De Energia Da Rede Neural Em 95% - Visão Alternativa
Anonim

As redes neurais são coisas poderosas, mas muito vorazes. Engenheiros do Massachusetts Institute of Technology (MIT) conseguiram desenvolver um novo chip que reduz o consumo de energia da rede neural em 95%, o que poderia, em teoria, permitir que funcionassem mesmo em dispositivos móveis com baterias. Os smartphones estão ficando cada vez mais inteligentes hoje em dia, oferecendo mais serviços alimentados por IA, como assistentes virtuais e traduções em tempo real. Mas geralmente as redes neurais processam dados para esses serviços na nuvem, e os smartphones apenas transmitem dados de um lado para outro.

Isso não é ideal porque requer um canal de comunicação espesso e presume que dados confidenciais estão sendo transmitidos e armazenados fora do alcance do usuário. Mas a quantidade colossal de energia necessária para alimentar redes neurais alimentadas por GPUs não pode ser fornecida em um dispositivo alimentado por uma pequena bateria.

Os engenheiros do MIT desenvolveram um chip que pode reduzir esse consumo de energia em 95%. O chip reduz drasticamente a necessidade de transferir dados para frente e para trás entre a memória do chip e os processadores.

As redes neurais são formadas por milhares de neurônios artificiais interconectados e dispostos em camadas. Cada neurônio recebe entrada de vários neurônios na camada subjacente e, se a entrada combinada ultrapassar um certo limite, ela transmite o resultado para vários neurônios acima. A força da conexão entre os neurônios é determinada pelo peso que é estabelecido durante o processo de treinamento.

Isso significa que, para cada neurônio, o chip deve extrair a entrada de uma conexão específica e o peso da conexão da memória, multiplicá-los, armazenar o resultado e depois repetir o processo para cada entrada. Muitos dados viajam aqui e ali e muita energia é desperdiçada.

O novo chip MIT elimina isso calculando todas as entradas em paralelo na memória usando circuitos analógicos. Isso reduz significativamente a quantidade de dados que precisam ser ultrapassados e resulta em uma economia significativa de energia.

Esta abordagem requer que o peso das conexões seja um binário em vez de um intervalo, mas trabalhos teóricos anteriores mostraram que isso não afetará muito a precisão, e os cientistas descobriram que os resultados do chip diferiam em 2-3% da versão usual da rede neural operando em um computador padrão.

Esta não é a primeira vez que cientistas criam chips que processam processos na memória, reduzindo o consumo de energia de uma rede neural, mas esta é a primeira vez que essa abordagem foi usada para operar uma poderosa rede neural conhecida por seu processamento de imagens.

Vídeo promocional:

"Os resultados mostram especificações impressionantes para a implementação com eficiência energética de operações de rolagem em um array de memória", disse Dario Gil, vice-presidente de inteligência artificial da IBM.

"Isso definitivamente abre possibilidades para o uso de redes neurais convolucionais mais sofisticadas para classificação de imagem e vídeo na Internet das Coisas no futuro."

E isso é interessante não apenas para grupos de P&D. O desejo de colocar IA em dispositivos como smartphones, eletrodomésticos e todos os tipos de dispositivos IoT está empurrando muitos no Vale do Silício para chips de baixo consumo de energia.

A Apple já integrou seu Neural Engine ao iPhone X para alimentar, por exemplo, a tecnologia de reconhecimento facial, e dizem que a Amazon está desenvolvendo seus próprios chips de IA para a próxima geração de assistentes digitais Echo.

Grandes empresas e fabricantes de chips também estão confiando cada vez mais no aprendizado de máquina, o que os obriga a tornar seus dispositivos ainda mais eficientes em termos de energia. No início deste ano, a ARM apresentou dois novos chips: o processador Arm Machine Learning, que lida com tarefas gerais de IA, desde a tradução até o reconhecimento facial, e o processador Arm Object Detection, que, por exemplo, detecta rostos em imagens.

O mais novo chip móvel da Qualcomm, o Snapdragon 845, tem uma GPU e é fortemente orientado por IA. A empresa também revelou o Snapdragon 820E, que deve funcionar em drones, robôs e dispositivos industriais.

Olhando para o futuro, a IBM e a Intel estão desenvolvendo chips neuromórficos com arquitetura inspirada no cérebro humano e incrível eficiência energética. Isso poderia teoricamente permitir que TrueNorth (IBM) e Loihi (Intel) realizassem um poderoso aprendizado de máquina usando apenas uma fração da potência dos chips convencionais, mas esses projetos ainda são altamente experimentais.

Será muito difícil forçar os chips que dão vida às redes neurais para economizar bateria. Mas no ritmo atual de inovação, isso “muito difícil” parece bastante viável.

Ilya Khel

Recomendado: