A Nova Tecnologia Da IBM Tornou Possível Acelerar O Treinamento De IA Em 4 Vezes - - Visão Alternativa

A Nova Tecnologia Da IBM Tornou Possível Acelerar O Treinamento De IA Em 4 Vezes - - Visão Alternativa
A Nova Tecnologia Da IBM Tornou Possível Acelerar O Treinamento De IA Em 4 Vezes - - Visão Alternativa

Vídeo: A Nova Tecnologia Da IBM Tornou Possível Acelerar O Treinamento De IA Em 4 Vezes - - Visão Alternativa

Vídeo: A Nova Tecnologia Da IBM Tornou Possível Acelerar O Treinamento De IA Em 4 Vezes - - Visão Alternativa
Vídeo: Webinar | Viaflow & ANEFAC - Automação digital para acelerar resultados 2024, Pode
Anonim

A eficiência computacional da inteligência artificial é como uma espada de dois gumes. Por um lado, ele deve aprender muito rápido, mas quanto mais a rede neural "acelera", mais ela consome energia. Isso significa que pode se tornar simplesmente não lucrativo. Porém, uma saída para a situação pode ser dada pela IBM, que tem demonstrado novos métodos de ensino de IA, que lhe permitirão aprender várias vezes mais rápido com o mesmo nível de recursos e custos de energia.

Para alcançar esses resultados, a IBM teve que abandonar os métodos computacionais usando técnicas de 32 e 16 bits, desenvolvendo uma técnica de 8 bits, bem como um novo chip para trabalhar com ela.

Todos os desenvolvimentos da IBM foram apresentados no NeurIPS 2018 em Montreal. Os engenheiros da empresa falaram sobre dois desenvolvimentos. O primeiro é chamado de "aprendizado de máquina profundo de redes neurais usando números de ponto flutuante de 8 bits". Nele, eles descrevem como conseguiram reduzir a precisão aritmética para aplicativos de 32 bits para 16 bits de forma e salvá-la em um modelo de 8 bits. Os especialistas afirmam que sua técnica acelera o tempo de treinamento de redes neurais profundas em 2 a 4 vezes em comparação com sistemas de 16 bits. O segundo desenvolvimento é "multiplicação de 8 bits na memória com memória de transição de fase projetada". Aqui, os especialistas revelam um método que compensa a baixa fidelidade dos chips analógicos de IA, permitindo que eles consumam 33 vezes menos energia do que os sistemas de IA digital comparáveis.

Vladimir Kuznetsov