A empresa britânica DeepMind, que se tornou parte do Google em 2014, trabalha constantemente para melhorar a inteligência artificial. Em junho de 2018, seus funcionários apresentaram uma rede neural capaz de criar imagens 3D a partir de imagens 2D. Em outubro, os desenvolvedores foram além - eles criaram uma rede neural BigGAN para gerar imagens da natureza, animais e objetos que são difíceis de distinguir de fotos reais.
Tal como acontece com outros projetos de imagens artificiais, esta tecnologia é baseada em uma rede neural adversarial generativa. Lembre-se de que ele consiste em duas partes: um gerador e um discriminador. O primeiro cria imagens e o segundo avalia sua semelhança com as amostras do resultado ideal.
Neste trabalho, queríamos confundir a linha entre as imagens geradas por IA e as fotografias do mundo real. Descobrimos que os métodos de geração existentes são suficientes para isso.
Diferentes conjuntos de imagens foram usados para ensinar o BigGAN a criar fotos de borboletas, cães e comida. Primeiro, o treinamento foi baseado no banco de dados ImageNet e, em seguida, - o conjunto maior JFT-300M de 300 milhões de imagens, dividido em 18.000 categorias.
O treinamento do BigGAN durou 2 dias. Foram necessários 128 processadores Google Tensor projetados especificamente para aprendizado de máquina.
Professores da Scottish Heriot-Watt University também participaram do desenvolvimento da rede neural. Detalhes sobre a tecnologia são descritos no artigo Treinamento
rede neural adversarial generativa em grande escala GAN para a síntese de imagens naturais de alta fidelidade”.
Vídeo promocional:
Em setembro, pesquisadores da Carnegie Melon University usaram redes neurais adversas geradoras para criar um sistema para sobrepor expressões faciais nos rostos de outras pessoas.
Ramis Ganiev