Para Evitar A Morte, A Humanidade Precisa Bloquear A Inteligência Artificial - Visão Alternativa

Índice:

Para Evitar A Morte, A Humanidade Precisa Bloquear A Inteligência Artificial - Visão Alternativa
Para Evitar A Morte, A Humanidade Precisa Bloquear A Inteligência Artificial - Visão Alternativa

Vídeo: Para Evitar A Morte, A Humanidade Precisa Bloquear A Inteligência Artificial - Visão Alternativa

Vídeo: Para Evitar A Morte, A Humanidade Precisa Bloquear A Inteligência Artificial - Visão Alternativa
Vídeo: O Perigo da INTELIGÊNCIA ARTIFICIAL 2024, Pode
Anonim

Computadores ou robôs superinteligentes que ameaçam a existência da raça humana são um dos enredos favoritos da ficção científica. Na realidade, de acordo com os cientistas, tal cenário do juízo final só pode ser evitado com a criação de uma "prisão" virtual para conter inteligência artificial (IA). E isso deve ser feito antes que ele aprenda a ter consciência e a se aprimorar.

Se você deixar esse gênio sair da garrafa, de um oráculo que resolve nossos problemas, ele pode se transformar em uma ameaça apocalíptica, diz Roman Yampolsky, um cientista da Universidade de Louisville, Kentucky, que trabalha no campo da ciência da computação. As condições em que a IA será contida devem ser cuidadosamente planejadas para que não se liberte por meio de ameaças, suborno, tentação ou hacking de computador.

“Ele pode inventar muitas maneiras de influenciar, gerando uma complexa combinação de socioengenharia e usando componentes de hardware existentes para propósitos que nem sequer podemos imaginar”, acredita Yampolsky. - Esse software tem possibilidades ilimitadas para infectar computadores e redes. A IA pode encontrar maneiras de influenciar a psique humana, subornar ou chantagear as pessoas que estão em contato com ela."

O surgimento de uma nova área de pesquisa científica lidando com o problema da criação de uma "prisão" para inteligência artificial traz benefícios adicionais. Esses estudos são muito úteis para melhorar a criptografia e a segurança do computador, Yampolsky tem certeza. Suas propostas foram detalhadas na edição de março da revista acadêmica do Journal of Consciousness Studies.

Como preparar uma armadilha para a Skynet

Para começar, você pode colocar inteligência artificial dentro de uma "máquina virtual". Deixe funcionar dentro de um sistema operacional normal - limitar o acesso de IA ao software e hardware do computador host o tornará muito mais inofensivo. De qualquer forma, a inteligência artificial inteligente não será capaz de enviar mensagens secretas a seus apoiadores humanos, eliminando o código Morse com ventiladores de refrigeração.

Colocar inteligência artificial em um computador sem acesso à Internet é uma boa maneira de frustrar os planos insidiosos da IA de proteger a Terra de você e de mim. No caso de qualquer outra falha, os pesquisadores podem sempre desacelerar o processo de pensamento da IA diminuindo a velocidade de processamento do computador, pressionando regularmente o botão "reset" ou desconectando a IA da fonte de alimentação.

Vídeo promocional:

Essas medidas de segurança foram projetadas para lidar com vírus de computador altamente inteligentes e perigosos, mas ninguém sabe até que ponto eles são eficazes.

Catch-22 (romance do escritor americano J. Heller; aprox. Mixednews) é que não podemos conduzir testes em grande escala de nossas ideias até que o desenvolvimento da IA seja concluído. Mas, para tornar a IA segura, é necessário desenvolver um conjunto de medidas adequadas, diz Yampolsky. "A melhor opção é impor restrições ao uso de sistemas de IA e então, conforme necessário, alterar essas restrições de acordo com as capacidades crescentes da IA."

Image
Image

O cientista Roman Yampolsky sugeriu usar o sinal "@" ou outros sinais que são usados hoje para denotar uma radiação ou ameaça biológica para indicar a presença de um perigo associado à inteligência artificial.

Nunca coloque um segurança humano no veículo

Durante uma conversa aparentemente inocente com um segurança, nada impedirá a IA de usar técnicas psicológicas, como amizade ou chantagem. Uma pessoa pode ser subornada prometendo-lhe saúde perfeita, imortalidade ou mesmo uma promessa de devolver parentes e amigos do outro mundo. Ou faça qualquer coisa com ameaças.

A forma mais segura de se comunicar com a IA é fazer com que, ao resolver um problema científico ou técnico específico, escolha uma resposta entre as várias opções disponíveis, explica Yampolsky. Isso ajudará a manter o oráculo superinteligente sob controle.

Muitos pesquisadores acreditam que, apesar de todas as precauções, manter o smartass AI trancado indefinidamente não funcionará. O último experimento de Eliezer Yudkowski, pesquisador do Instituto de Singularidade na criação de Inteligência Artificial, mostrou que mesmo a inteligência de nível humano pode enganar uma pessoa e "escapar" da prisão.

No entanto, Yampolsky insiste em manter a IA em completo isolamento - ainda é melhor do que desistir e dar-lhe total liberdade. Mas se o desenvolvimento da IA chegar ao ponto em que pode manipular uma pessoa usando o subconsciente (prevendo o futuro), telepatia ou telecinesia, as consequências serão imprevisíveis.

"Se tal IA se auto-aperfeiçoar e atingir um nível que exceda significativamente as capacidades da inteligência humana, as consequências não podem ser imaginadas", adverte Yampolsky.

Recomendado: