A Inteligência Artificial Mais Perigosa Do Mundo Foi Desenvolvida: O Que Ela Pode Fazer? - Visão Alternativa

A Inteligência Artificial Mais Perigosa Do Mundo Foi Desenvolvida: O Que Ela Pode Fazer? - Visão Alternativa
A Inteligência Artificial Mais Perigosa Do Mundo Foi Desenvolvida: O Que Ela Pode Fazer? - Visão Alternativa
Anonim

A empresa OpenAI, da qual Elon Musk é um dos fundadores, anunciou a criação de uma inteligência artificial avançada para escrever textos originais sobre um determinado tema. Ele deveria traduzir textos para outros idiomas, responder a perguntas e realizar outras tarefas úteis, mas a pesquisa mostrou que pode ser extremamente perigoso e pode ser usado por cibercriminosos para enganar maciçamente as pessoas. Nesse sentido, a empresa decidiu mostrar ao público apenas uma versão limitada e manter o original sob o mais estrito sigilo.

O modelo de computador foi denominado GPT-2 e foi treinado em 8 milhões de páginas da web. Os textos escritos sobre eles formam a base para novos materiais sobre um tema definido por uma pessoa: por exemplo, a inteligência artificial pode compor um ensaio inteiro sobre os aspectos positivos da reciclagem de lixo ou uma história de fantasia no estilo "O Senhor dos Anéis". No entanto, os pesquisadores também descobriram que o sistema faz um excelente trabalho ao escrever notícias falsas sobre celebridades, desastres e até guerras.

No momento, a versão completa da ferramenta de geração de texto está disponível apenas para desenvolvedores e alguns colaboradores do MIT Technology Review. Por poder ser utilizado para a criação descontrolada de notícias e publicações falsas nas redes sociais, optou-se por não publicá-lo em domínio público e mantê-lo em sigilo.

ScienceAlert compartilhou um exemplo de notícia falsa:

Você pode ler o texto de um pequeno ensaio sobre os contras da reciclagem de lixo no blog da OpenAI.

Os desenvolvedores admitem que o modelo de linguagem não é ideal no momento: o sistema às vezes permite a repetição de certos fragmentos de texto, troca de tema não natural e falhas de modelagem de mundo. Por exemplo, em um dos estágios de teste, o sistema escreveu sobre um incêndio queimando sob a água.

Vídeo promocional:

De acordo com Jack Clarke, Diretor de Políticas de IA Aberta, depois de alguns anos, tal algoritmo pode se transformar em uma arma perigosa para enganar em massa as pessoas. Alguns críticos estão convencidos de que a tecnologia não é perigosa de forma alguma, e a empresa está simplesmente chamando a atenção para si mesma.

Recomendado: