Como As Redes Neurais Foram Ensinadas A Falsificar A Imagem Das Notícias - Visão Alternativa

Índice:

Como As Redes Neurais Foram Ensinadas A Falsificar A Imagem Das Notícias - Visão Alternativa
Como As Redes Neurais Foram Ensinadas A Falsificar A Imagem Das Notícias - Visão Alternativa

Vídeo: Como As Redes Neurais Foram Ensinadas A Falsificar A Imagem Das Notícias - Visão Alternativa

Vídeo: Como As Redes Neurais Foram Ensinadas A Falsificar A Imagem Das Notícias - Visão Alternativa
Vídeo: Robótica Móvel utilizando redes neurais 2024, Abril
Anonim

Para criar fakes, sistemas de inteligência artificial e tecnologias para gerar fakes de vídeo e áudio são usados.

Para criar uma imagem “individual” de notícias para qualquer um de nós e falsificar as reportagens da mídia selecionadas nela, hoje os esforços de um programador são suficientes. Especialistas em inteligência artificial e segurança cibernética contaram ao Izvestia sobre isso. Mais recentemente, eles estimaram que isso exigia o trabalho de várias equipes. Essa aceleração se tornou possível com o desenvolvimento de tecnologias para ataques a redes neurais e a geração de fakes de som e vídeo a partir de programas de criação de “fakes profundos”. O jornal Izvestia sofreu recentemente um ataque semelhante, quando três portais de notícias da Líbia publicaram ao mesmo tempo uma mensagem que supostamente aparecia em uma das edições. De acordo com especialistas, dentro de 3-5 anos, pode-se esperar uma invasão de manipuladores robóticos, que serão automaticamente capazes de criar muitas falsificações.

Admirável mundo novo

Tem havido cada vez mais projetos que ajustam o quadro da informação à percepção de usuários específicos. Um exemplo de seu trabalho foi a recente ação de três portais líbios, que publicaram notícias supostamente impressas na edição do Izvestia de 20 de novembro. Os criadores da farsa modificaram a primeira página do jornal, postando nela uma mensagem sobre as negociações entre o marechal Khalifa Haftar e o primeiro-ministro do Governo de Acordo Nacional (PNS) Fayez Sarraj. A falsa, na fonte Izvestia, vinha acompanhada de uma foto dos dois líderes tirada em maio de 2017. A etiqueta com o logotipo da publicação foi cortada da edição real publicada de 20 de novembro, e todos os outros textos da página da edição de 23 de outubro.

Do ponto de vista dos especialistas, em um futuro previsível, tais falsificações podem ser feitas automaticamente.

Image
Image

“As tecnologias de inteligência artificial estão agora completamente abertas e os dispositivos para receber e processar dados estão se miniaturizando e ficando mais baratos”, disse ao Izvestia Yuri Vilsiter, Doutor em Ciências Físicas e Matemáticas, Professor da Academia Russa de Ciências e chefe do departamento “GosNIIAS” da FSUE. - Portanto, é muito provável que em um futuro próximo, nem mesmo o Estado e as grandes corporações, mas simplesmente pessoas físicas, possam nos espionar e espionar, bem como manipular a realidade. Nos próximos anos, será possível, ao analisar as preferências do usuário, influenciá-lo por meio de feeds de notícias e falsificações muito inteligentes.

Vídeo promocional:

Segundo Yuri Vilsiter, já existem tecnologias que podem ser utilizadas para tal intervenção no ambiente mental. Em teoria, a invasão de bots manipuladores pode ser esperada em alguns anos, disse ele. Um momento limitante aqui pode ser a necessidade de coletar grandes bancos de dados de exemplos de respostas de pessoas reais a estímulos artificiais com rastreamento de consequências de longo prazo. É provável que esse rastreamento exija vários anos de pesquisa antes que os ataques direcionados sejam obtidos de forma consistente.

Ataque de visão

Alexei Parfentiev, chefe do departamento de análise da SearchInform, concorda com Yuri Vilsiter. Segundo ele, os especialistas já prevêem ataques a redes neurais, embora agora praticamente não haja exemplos.

- Pesquisadores do Gartner acreditam que até 2022, 30% de todos os ataques cibernéticos terão como objetivo corromper os dados nos quais a rede neural treina e roubar modelos de aprendizado de máquina prontos. Então, por exemplo, veículos não tripulados podem repentinamente começar a confundir pedestres com outros objetos. E não vamos falar sobre risco financeiro ou de reputação, mas sobre a vida e a saúde das pessoas comuns, acredita o especialista.

Ataques a sistemas de visão por computador estão sendo realizados como parte da pesquisa agora. O objetivo de tais ataques é forçar a rede neural a detectar na imagem o que não está lá. Ou, ao contrário, não ver o que foi planejado.

Image
Image

“Um dos tópicos em desenvolvimento ativo no campo do treinamento de redes neurais são os chamados ataques adversários (“ataques adversários”. - Izvestia)”, explicou Vladislav Tushkanov, analista da Web da Kaspersky Lab. - Na maioria dos casos, destinam-se a sistemas de visão computacional. Para realizar tal ataque, na maioria dos casos, você precisa ter acesso total à rede neural (os chamados ataques de caixa branca) ou aos resultados de seu trabalho (ataques de caixa preta). Não existem métodos que possam enganar qualquer sistema de visão computacional em 100% dos casos. Além disso, já foram criadas ferramentas que permitem testar redes neurais quanto à resistência a ataques adversários e aumentar sua resistência.

No decorrer desse ataque, um invasor tenta de alguma forma alterar a imagem reconhecida para que a rede neural não funcione. Freqüentemente, o ruído é sobreposto à foto, semelhante ao que ocorre ao fotografar em uma sala mal iluminada. Uma pessoa geralmente não percebe bem essa interferência, mas a rede neural começa a funcionar mal. Mas, para realizar tal ataque, o invasor precisa acessar o algoritmo.

De acordo com Stanislav Ashmanov, Diretor Geral da Neuroset Ashmanov, atualmente não há métodos para lidar com esse problema. Além disso, essa tecnologia está disponível para qualquer pessoa: um programador médio pode usá-la baixando o software de código aberto necessário do serviço Github.

Image
Image

- Um ataque a uma rede neural é uma técnica e algoritmos para enganar uma rede neural, que a fazem produzir resultados falsos e, na verdade, quebrá-la como uma fechadura de porta, - acredita Ashmanov. - Por exemplo, agora é bem fácil fazer o sistema de reconhecimento de rosto pensar que não é você, mas Arnold Schwarzenegger na frente dele - isso é feito misturando aditivos imperceptíveis ao olho humano nos dados que entram na rede neural. Os mesmos ataques são possíveis para sistemas de reconhecimento e análise de voz.

O especialista tem certeza de que só vai piorar - essas tecnologias foram para as massas, os fraudadores já as estão usando e não há proteção contra elas. Como não há proteção contra a criação automatizada de falsificações de vídeo e áudio.

Falsificações profundas

As tecnologias Deepfake baseadas em Deep Learning (tecnologias de aprendizagem profunda de redes neurais. - Izvestia) já representam uma ameaça real. Falsificações de vídeo ou áudio são criadas editando ou sobrepondo os rostos de pessoas famosas que supostamente pronunciam o texto necessário e desempenham o papel necessário na trama.

“Deepfake permite que você substitua os movimentos labiais e a fala humana por vídeo, o que cria uma sensação de realismo do que está acontecendo”, diz Andrey Busargin, diretor do departamento de proteção de marca inovadora e propriedade intelectual do Group-IB. - Celebridades falsas “oferecem” aos usuários nas redes sociais a participação no sorteio de prêmios valiosos (smartphones, carros, quantias em dinheiro), etc. Os links desses vídeos geralmente levam a sites fraudulentos e de phishing, nos quais os usuários são solicitados a inserir informações pessoais, incluindo detalhes de cartão bancário. Esses esquemas representam uma ameaça tanto para usuários comuns quanto para figuras públicas mencionadas em comerciais. Devido a esse tipo de travessura, as imagens de celebridades são associadas a golpes ou produtos anunciados.e é aqui que encontramos danos à marca pessoal”, diz ele.

Image
Image

Outra ameaça está associada ao uso de “votos falsos” para fraude telefônica. Por exemplo, na Alemanha, os cibercriminosos usaram o voice deepfake para fazer o chefe de uma subsidiária no Reino Unido transferir urgentemente € 220.000 para a conta de um fornecedor húngaro em uma conversa telefônica, passando-se por gerente de empresa. O chefe da firma britânica suspeitou de um truque quando seu "chefe" pediu uma segunda ordem de pagamento, mas a ligação veio de um número austríaco. A essa altura, a primeira parcela já havia sido transferida para uma conta na Hungria, de onde o dinheiro foi retirado para o México.

Acontece que as tecnologias atuais permitem a criação de uma imagem individual de notícias repleta de notícias falsas. Além disso, em breve será possível distinguir falsificações de vídeo e áudio reais apenas pelo hardware. De acordo com especialistas, as medidas que proíbem o desenvolvimento de redes neurais provavelmente não serão eficazes. Portanto, em breve viveremos em um mundo em que será necessário reavaliar tudo constantemente.

“Precisamos nos preparar para isso e devemos aceitar isso”, enfatizou Yuri Vilsiter. - A humanidade não é a primeira vez que passa de uma realidade para outra. Nosso mundo, modo de vida e valores são radicalmente diferentes do mundo em que nossos ancestrais viveram há 60.000 anos, 5.000 anos atrás, 2.000 anos atrás e até 200-100 anos atrás. Em um futuro próximo, uma pessoa ficará em grande parte privada de privacidade e, portanto, forçada a não esconder nada e a agir com honestidade. Ao mesmo tempo, nada na realidade circundante e na própria personalidade pode ser assumido pela fé, tudo terá que ser questionado e constantemente reavaliado. Mas essa realidade futura será terrível? Não. Simplesmente será completamente diferente.

Anna Urmantseva

Recomendado: