Que Perigos Das Redes Neurais Subestimamos? - Visão Alternativa

Índice:

Que Perigos Das Redes Neurais Subestimamos? - Visão Alternativa
Que Perigos Das Redes Neurais Subestimamos? - Visão Alternativa

Vídeo: Que Perigos Das Redes Neurais Subestimamos? - Visão Alternativa

Vídeo: Que Perigos Das Redes Neurais Subestimamos? - Visão Alternativa
Vídeo: Deep Learning - L14 Redes neurais recorrentes part1 2024, Pode
Anonim

Você já conheceu uma pessoa na rua que seria um para um como você? Roupas, rosto, andar, forma de comunicação, hábitos são completamente idênticos aos seus. É como ser digitalizado e impresso em uma impressora. Parece um pouco assustador, não é? Agora imagine que você viu um vídeo no qual essa pessoa fala algo sobre si mesma. Na melhor das hipóteses, você tentará se lembrar de quando andou de uma maneira que não lembrava de nada, mas você poderia dizer isso diante da câmera. Embora tudo isso pareça um raciocínio simples, a tecnologia já está muito perto de criar essas pessoas. Eles já existem, mas em breve haverá muitos mais.

De onde vem o falso?

Agora, já existem muitas coisas que são comumente chamadas de falsificações. Eles estão em todo lugar. Eles podem ser encontrados em fotos, nas notícias, na produção de bens e nos serviços de informação. É mais fácil dizer onde não há fenômenos acompanhados por esta palavra. Enquanto você pode lutar contra eles. Você pode estudar a origem da foto, verificar as características distintivas de um produto de marca em relação a uma falsificação e verificar novamente as notícias. Embora as notícias sejam um tópico separado.

Hoje em dia, um consumidor de conteúdo não quer esperar e exige produção instantânea de seu criador, às vezes ele nem se preocupa com a qualidade, o principal é rápido. É aqui que surgem situações em que alguém disse algo e os outros, sem verificar, retiraram-no dos seus sites e jornais. Em alguns casos, leva muito tempo para girar a bola de volta e provar que estava tudo errado.

Não adianta explicar por que tudo isso é feito. Por um lado, há quem só queira rir da situação, por outro, quem realmente não sabia que estava errado. Um lugar separado, aproximadamente no meio, é ocupado por aqueles para quem é banal lucrar. Podem ser interesses de influência em diferentes níveis, incluindo o político. Às vezes, esse é o propósito de obter lucro. Por exemplo, semear o pânico no mercado de ações e conduzir transações lucrativas com títulos. Mas, muitas vezes, isso se deve à hostilidade em relação a uma pessoa (empresa, produto, etc.) para menosprezá-la. Um exemplo simples é a "queda" nas avaliações de um filme ou instituição que não é desejável para alguém. Claro, isso requer um exército de pessoas que vão e não gostam (às vezes até bots), mas isso é outra história.

O que é Deep Learning?

Vídeo promocional:

Recentemente, esse termo soa cada vez com mais frequência. Às vezes ele nem mesmo tem relação com o caso e se confunde com outra coisa. Portanto, o produto de software parece mais impressionante.

Não pense que o conceito e os princípios básicos do aprendizado de máquina surgiram apenas alguns anos atrás. Na verdade, eles têm tantos anos que muitos de nós nem mesmo tínhamos nascido naquela época. Os princípios básicos dos sistemas de aprendizagem profunda e os modelos matemáticos para seu trabalho eram conhecidos na década de 80 do século passado.

Na época, eles não faziam muito sentido devido à falta de um componente importante. Era um alto poder de computação. Somente em meados da década de 2000 surgiram sistemas que podem ajudar a trabalhar nessa direção e permitir o cálculo de todas as informações necessárias. Agora as máquinas evoluíram ainda mais e alguns sistemas de visão de máquina, percepção de voz e outros funcionam tão eficientemente que às vezes até ultrapassam as capacidades de uma pessoa. Embora, eles ainda não estejam "presos" em direções responsáveis, tornando-os um acréscimo às capacidades humanas, mantendo o controle sobre eles.

Image
Image

O que é Deepfake? Quando Deepfake apareceu?

É fácil adivinhar que Deepfake é um pequeno jogo de palavras associado ao Deep Learning e às mesmas falsificações de que falei acima. Ou seja, o Deepfake deve levar o falso a um novo nível e descarregar uma pessoa neste negócio difícil, permitindo que ela crie conteúdo falso sem desperdiçar energia.

Em primeiro lugar, essas falsificações dizem respeito ao vídeo. Ou seja, qualquer pessoa pode se sentar na frente da câmera, dizer algo e seu rosto será substituído por outra pessoa. Parece assustador, porque, na verdade, você só precisa captar os movimentos básicos de uma pessoa e será simplesmente impossível distinguir uma farsa. Vamos ver como tudo começou.

A primeira rede adversarial geradora foi criada por um estudante da Universidade de Stanford. Aconteceu em 2014, e o nome do aluno era Ian Goodfellow. Na verdade, ele opôs duas redes neurais uma à outra, uma das quais estava envolvida na geração de rostos humanos, e a segunda as analisou e falou de forma semelhante ou não. Então eles se treinaram e um dia a segunda rede neural começou a se confundir e pegar as imagens geradas para valer. É esse sistema cada vez mais complexo que dá origem ao Deepfake.

Agora, um dos principais promotores da ideia do Deepfake é Hao Li. Ele não só faz isso, mas também muitos outros. Por isso, ele foi premiado repetidamente com vários prêmios, incluindo os não oficiais. Aliás, ele é um dos que deveriam ser agradecidos pelo aparecimento do animoji no iPhone X. Se estiver interessado, você pode se familiarizar com mais detalhes em seu site. Hoje ele não é o principal tópico de discussão.

Só nos lembramos dele porque no Fórum Econômico Mundial de Davos ele mostrou seu aplicativo, que permitirá substituir o rosto de uma pessoa sentada diante da câmera por qualquer outro rosto. Em particular, ele mostrou como o sistema funciona a partir do exemplo dos rostos de Leonardo DiCaprio, Will Smith e outras pessoas famosas.

Parece um pouco assustador. Por um lado, você só pode admirar as tecnologias modernas que permitem digitalizar um rosto, alterá-lo em qualquer lugar e produzir uma nova imagem. Tudo isso leva uma fração de segundo e o sistema nem mesmo diminui a velocidade. Ou seja, permite não só processar o vídeo acabado e substituir o rosto, mas também participar desse personagem em algum tipo de videocomunicação ao vivo.

Perigo de Deepfake. Como mudo o rosto em um vídeo?

Você pode falar o quanto quiser que essa tecnologia é necessária, é muito legal e você não precisa caluniar. Você pode até ir ao extremo e começar a dizer que esta é a posição de um veado velho e feroz que simplesmente tem medo de tudo que é novo, mas na verdade existem mais perigos do que benefícios.

Com essa tecnologia, principalmente se for de código aberto, qualquer pessoa poderá navegar e gravar qualquer vídeo. Não é ruim se apenas difamar a honra e a dignidade de alguém, muito pior se for uma declaração feita em nome de uma pessoa importante. Por exemplo, ao gravar um vídeo de apenas 30-40 segundos em nome de Tim Cook, você pode derrubar quase toda a esfera de TI dos EUA, liderada pela Apple. O mercado de ações será tão atingido que semeará pânico entre os investidores. Como resultado, milhares de pessoas perderão bilhões de dólares.

Quem não gosta dessa forma de ganhar dinheiro vai dizer que é disso que precisa, deixe ir para a fábrica. Mas no cenário mais triste, não haverá planta depois disso. Além disso, é piegas pegarmos uma pessoa que trapaceia nas flutuações do valor dos títulos. Basta comprá-los e vendê-los na hora certa.

A situação pode ser ainda pior se o "palhaço" falar em nome do líder de um grande estado. Claro, então tudo será revelado, mas durante esse tempo você pode fazer muitas coisas desagradáveis. Nesse contexto, simplesmente substituir o rosto de uma celebridade por um ator em um filme adulto seria uma brincadeira inocente.

Com essas tecnologias, o principal é digitalizar e, então, é uma questão de tecnologia. No verdadeiro sentido da palavra
Com essas tecnologias, o principal é digitalizar e, então, é uma questão de tecnologia. No verdadeiro sentido da palavra

Com essas tecnologias, o principal é digitalizar e, então, é uma questão de tecnologia. No verdadeiro sentido da palavra.

Você pode imaginar a situação oposta, quando uma pessoa real diz algo e então garante a todos que foi incriminada. Como estar nessa situação também não é muito claro. Isso trará tanta confusão aos feeds de notícias que simplesmente não será possível verificar novamente em outra fonte. Como resultado, geralmente não ficará claro o que é verdadeiro e o que é falso neste mundo. Uma imagem emerge de filmes sobre um futuro sombrio, como Surrogates ou Terminator, onde o T-1000 se apresentou como outra pessoa e, entre outras coisas, chamou John Conor em nome de sua mãe adotiva.

Agora nem estou falando de outro abuso que permitirá a coleta de evidências falsas. Neste contexto, toda a diversão do brinquedo se torna muito duvidosa.

Como detectar Deepfake?

O problema não é nem mesmo que tais sistemas devam ser banidos, mas que isso não é mais possível. Eles já estão lá, e o desenvolvimento de tecnologias, incluindo a leitura de rostos, levou ao seu surgimento e à disseminação do código aberto. Mesmo se imaginarmos que o sistema em sua forma atual deixará de existir, devemos entender que ele será criado de novo. Eles ensinarão mais uma vez as redes neurais a trabalharem juntas e é isso.

Até agora, nem tudo é tão assustador e você pode literalmente identificar uma farsa a olho nu. A imagem é semelhante, mas um tanto grosseira. Além disso, ela às vezes tem alguns problemas de mesclagem, especialmente nas bordas do rosto. Mas nada pára e não é nada difícil desenvolvê-lo ainda mais. O mesmo Hao Li tem certeza de que isso não levará mais do que alguns meses, e para criar “máscaras” que nem mesmo um computador consegue distinguir, levará vários anos mais. Depois disso, não haverá mais volta.

Por um lado, o algoritmo que o YouTube e o Facebook já estão criando pode proteger contra isso. Aliás, este último até abriu um concurso para o desenvolvimento de tecnologia de reconhecimento - Deepfake Detection Challenge ("A tarefa de detectar deepfakes"). O prêmio para esta competição é de US $ 10 milhões. A competição já está em andamento e terminará em março de 2020. Você ainda pode ter tempo para participar.

Substituir um rosto em um vídeo não é mais um problema
Substituir um rosto em um vídeo não é mais um problema

Substituir um rosto em um vídeo não é mais um problema.

Talvez essa generosidade se deva a um vídeo falso com o próprio Mark Zuckerberg. Se essas duas coisas estão relacionadas, o surgimento de tal competição não é surpreendente.

Se a face substituída corresponder totalmente à original, a força contrária representada por uma rede neural especial será impotente. Nesse caso, ela terá que captar diferenças mínimas nas expressões faciais, movimentos e maneira de falar. No caso dos famosos, tal problema será resolvido ao nível do serviço de vídeo, já que o mesmo YouTube sabe como anda o Donald Trump convencional. Quando se trata de uma pessoa menos conhecida, fica mais complicado. Porém, isso também pode ser comprovado colocando-o na frente da câmera e tendo uma conversa casual enquanto a rede neural analisa seus movimentos. Será algo como estudar uma impressão digital, mas, como podemos ver, isso levará novamente a dificuldades desnecessárias.

Costurar sistemas de autenticação de vídeo em câmeras também pode ser contornado. Você pode fazer a câmera marcar o vídeo capturado e deixar claro que ele não foi filmado por meio de um aplicativo separado ou processado em um programa especial. Mas e os vídeos que acabaram de ser processados? Por exemplo, uma entrevista editada. Como resultado, obteremos um vídeo em que a chave original não estará mais.

Alguns memes no final
Alguns memes no final

Alguns memes no final.

Podemos dizer que agora esboçamos um dos cenários de um futuro sombrio? Em geral, sim. Se as tecnologias que foram criadas para atingir bons objetivos ficarem fora de controle, elas podem ser tragadas pela tristeza. Na verdade, existem muitas opções para essas tecnologias perigosas, mas a maioria delas é protegida. Por exemplo, fusão nuclear. Aqui, estamos lidando com um código que qualquer pessoa pode obter.

Escreva nos comentários como você vê a proteção contra falsificação, considerando que o sistema de mascaramento foi capaz de fazer máscaras completamente idênticas às faces originais. E porque eles estão em vídeo, você não pode nem aplicar o reconhecimento de profundidade e volume a eles. Além disso, vamos supor que qualquer código e chave embutidos na imagem possam ser hackeados. Como se costuma dizer, seria para quê. Agora podemos discutir, todo o introdutório está lá.

Artem Sutyagin

Recomendado: