Para que um mecanismo robótico aprenda a andar, não basta apenas "prender" várias pernas a ele. Aprender a se mover é um processo muito complexo que leva muito tempo aos desenvolvedores. Mas agora esse problema será resolvido pela inteligência artificial, porque um grupo de especialistas criou algoritmos universais que ajudam a IA a ensinar robôs de qualquer configuração a se moverem. Neste caso, a intervenção humana neste processo não é necessária.
Por trás do desenvolvimento está uma equipe de cientistas da Universidade da Califórnia em Berkeley e um grupo de especialistas do Google Brain, um dos braços de pesquisa do Google em inteligência artificial. O novo sistema treinou o robô de quatro patas para atravessar terrenos familiares e desconhecidos.
O aprendizado por reforço é essencialmente um método de incentivo e castigo adaptado para IA. Ele usa recompensa ou punição para atingir ou não objetivos.
Para experimentos, os cientistas levaram o robô Minitaur. Eles desenvolveram um sistema que consistia em uma estação de trabalho que atualizava os dados da rede neural, carregava informações no Minitaur e as descarregava de volta. O chip NVIDIA Jetson TX2 a bordo do robô era responsável pelo processamento das informações. O robô caminhou por 2 horas e deu 160.000 passos. Durante esse tempo, o algoritmo recompensou o robô por avançar e o puniu se ele travasse no lugar ou girasse muito para o lado. Como resultado, foi criado um algoritmo de movimento que permitiu ao robô escolher a trajetória ideal de movimento em qualquer situação.
Vladimir Kuznetsov