Como Os Bots Estão Matando A Democracia E O Discurso Público Na Web - Visão Alternativa

Como Os Bots Estão Matando A Democracia E O Discurso Público Na Web - Visão Alternativa
Como Os Bots Estão Matando A Democracia E O Discurso Público Na Web - Visão Alternativa

Vídeo: Como Os Bots Estão Matando A Democracia E O Discurso Público Na Web - Visão Alternativa

Vídeo: Como Os Bots Estão Matando A Democracia E O Discurso Público Na Web - Visão Alternativa
Vídeo: [Live aula] Como o fascismo chegou ao poder 2024, Setembro
Anonim

A campanha para as eleições presidenciais nos Estados Unidos começou oficialmente, o que por sua vez significa uma abundância de maneiras estranhas e insidiosas pelas quais a tecnologia distorce a política. Uma das maiores ameaças são as personalidades artificiais que estão apaixonadamente envolvidas em disputas políticas. Por um lado, a tecnologia de geração de texto baseada em inteligência artificial está se desenvolvendo mais rápido do que nunca, por outro lado, os chatbots nas redes sociais estão quase atingindo a perfeição. Essas "pessoas" geradas por computador logo irão abafar as discussões humanas reais na web.

O software de geração de texto é bem desenvolvido o suficiente para enganar qualquer pessoa. O computador é excelente para escrever notícias, especialmente sobre esportes e finanças, aconselhar clientes sobre sites de investimento, escrever artigos atraentes sobre outros tópicos de notícias (embora haja limitações).

Ao mesmo tempo, já existem algoritmos que podem gerar conteúdo indistinguível das postagens de usuários comuns. Em 2017, a FCC realizou um debate público sobre seus planos para acabar com a neutralidade da rede. Surpreendentes 22 milhões de comentários foram recebidos sobre este tópico. Muitos deles - talvez metade - eram falsos, com os invasores usando dados de identidade roubados. Alguns dos comentários foram grosseiros, 1,3 milhão foram gerados a partir do mesmo modelo - algumas palavras foram alteradas neles para tornar as mensagens únicas.

E as tecnologias nesta área estão se desenvolvendo ativamente. Em seu experimento, o pesquisador de Harvard Max Weiss usou um software de geração de texto para criar 1.000 comentários em resposta à iniciativa do governo Medicaid. Todos esses comentários eram únicos e pareciam ter sido escritos por pessoas reais que apoiavam uma determinada posição política. Eles conseguiram enganar os administradores do Medicaid.gov fazendo-os pensar que eram medos genuínos de pessoas reais. No decorrer da investigação, Weiss posteriormente revelou que os comentários eram falsos e pediu para serem removidos. Mas é improvável que outra pessoa ou grupo de intrusos que siga esse caminho seja tão moralista.

Os chatbots têm sido apresentados em discussões nas redes sociais há muitos anos. De acordo com uma estimativa, cerca de um quinto de todos os tweets sobre a eleição presidencial de 2016 foram publicados por bots, e cerca de um terço dos votos para o Brexit no mesmo ano. Em um relatório da Universidade de Oxford no ano passado, pesquisadores encontraram evidências de que bots estão sendo usados para espalhar propaganda em 50 países. Via de regra, eram programas simples, repetindo slogans impensadamente: por exemplo, um quarto de milhão de tuítes pró-saudita "Todos nós acreditamos em Mohammed bin Salman" após o assassinato de Jamal Khashoggi em 2018. Encontrar bots melhores é muito mais difícil. E medir a eficácia desses bots é difícil. Todos eles distorcem a opinião pública e a crença em um debate político bem fundamentado. De fato,estamos todos no meio de um novo experimento social.

Ao longo dos anos, os bots algorítmicos desenvolveram personalidades inteiras. Eles têm nomes falsos, biografias e fotografias falsas, às vezes geradas por computador. Em vez de espalhar propaganda indefinidamente, eles postam mensagens apenas ocasionalmente. Os pesquisadores podem descobrir que são bots e não humanos com base em padrões de postagem, mas a tecnologia de bot está melhorando o tempo todo, ultrapassando as tentativas de rastreá-los. Os bots do futuro serão melhor disfarçados como grupos sociais de pessoas, a propaganda será sutilmente tecida em tuítes sobre tópicos relacionados a esses grupos sociais.

Em breve, os Sims controlados pelo programa serão capazes de escrever cartas personalizadas para jornais, em PMs para funcionários eleitos, fornecer comentários personalizados para processos de criação de regras públicas e falar com inteligência sobre questões políticas nas redes sociais. Eles poderão comentar postagens em redes sociais, sites de notícias, etc. Serão criados personagens permanentes que parecerão reais até para quem os estuda. Eles poderão se apresentar nas redes sociais e enviar textos personalizados. Eles se replicarão na casa dos milhões e enviarão bilhões de mensagens, longas e curtas, ininterruptamente. Juntos, eles podem abafar qualquer debate real na Internet. Não só nas redes sociais, mas onde quer que haja comentários.

Talvez esses personagens sejam controlados por intrusos estrangeiros. Talvez sejam grupos políticos internos. Talvez sejam os próprios candidatos. Provavelmente, todos irão usá-lo. A lição mais importante das eleições de 2016 sobre a desinformação não é que a desinformação foi publicada; mas é barato e fácil desinformar as pessoas. Os avanços tecnológicos futuros tornarão tudo isso ainda mais acessível.

Vídeo promocional:

Nosso futuro será um violento debate político onde os bots irão discutir principalmente com outros bots. Não é o que imaginamos quando elogiamos o mercado de ideias ou qualquer processo político democrático. Para que uma democracia funcione adequadamente, duas coisas são necessárias: informação e representação. Personagens artificiais atingem ambas as coisas.

A solução do problema ainda não é óbvia. Podemos tentar regular o uso de bots - a lei proposta da Califórnia exige que os bots se identifiquem - mas isso só é eficaz contra campanhas de influenciadores legítimos, como anúncios. A influência oculta será muito mais difícil de detectar. A defesa mais óbvia é o desenvolvimento e padronização de melhores métodos de autenticação. Se as redes sociais estiverem confiantes de que há uma pessoa real por trás de cada conta, elas serão mais capazes de eliminar pessoas falsas. Mas contas falsas já são criadas regularmente usando dados de pessoas reais sem seu conhecimento ou consentimento. Não temos um sistema de autenticação que proteja a privacidade e pode atingir bilhões de usuários.

Só podemos esperar que nossa capacidade de identificar personalidades artificiais se iguale à nossa capacidade de mascará-las. Mas, por enquanto, os invasores estão sempre um passo à frente.

No final do dia, todas as decisões devem ser não técnicas. Devemos reconhecer as limitações do debate político na Internet e priorizar novamente a comunicação face a face. É mais difícil automatizar e sabemos que as pessoas com quem falamos são pessoas reais. Mas, até agora, essa mudança cultural parece uma solução completamente irreal, e as tentativas de desinformação são generalizadas em todo o mundo e realizadas em mais de 70 países. Essa é a forma normal de propaganda em países com regimes autoritários, e se torna uma forma de conduzir uma campanha política.

Personagens artificiais são o futuro da propaganda. E embora eles possam ser ineficazes em trazer a discussão a um certo denominador, eles podem facilmente abafar completamente a discussão.

BRUCE SCHNEIER é pesquisador e professor da Harvard Kennedy School.

Recomendado: