Por Que Você Entendeu Mal O Apocalipse Robo - Visão Alternativa

Índice:

Por Que Você Entendeu Mal O Apocalipse Robo - Visão Alternativa
Por Que Você Entendeu Mal O Apocalipse Robo - Visão Alternativa

Vídeo: Por Que Você Entendeu Mal O Apocalipse Robo - Visão Alternativa

Vídeo: Por Que Você Entendeu Mal O Apocalipse Robo - Visão Alternativa
Vídeo: Se Este vídeo não fizer Você QUESTIONAR TUDO, nada Fará - A Conexão Interestelar de Göbekli Tepe 2024, Março
Anonim

O medo da inteligência artificial há muito está enraizado na cultura popular. As melhores mentes da humanidade, de Stephen Hawking a Elon Musk, falaram sobre a ameaça existencial da mente digital para a humanidade.

O professor da Universidade da Califórnia em Berkeley Stuart Russell também fala sobre isso, mas em sua visão do futuro não há robôs do mal se rebelando contra a dominação humana.

De acordo com Russell, em algum momento, as máquinas simplesmente se tornarão tão eficazes que irão nos destruir, executando as tarefas que lhes demos.

Russell é especialista em aprendizado de máquina e autor de Human Compatible: AI and the Problem of Control.

“A história tradicional de Hollywood é que as máquinas tornam-se espontaneamente conscientes e então decidem que odeiam as pessoas e querem matar todas”, observa o professor Russell.

Mas isso, em sua opinião, é uma visão errada do robo-apocalipse, porque as máquinas não têm emoções humanas.

“Precisamos nos preocupar não com a autoconsciência das máquinas do mal, mas com a competência das máquinas que executam as tarefas que estabelecemos”, está convencido o cientista.

Vídeo promocional:

Muito competente

Em uma entrevista à BBC Today, o professor Russell descreveu uma situação hipotética em que a existência da humanidade poderia ser ameaçada pela inteligência artificial.

Imagine que existe uma inteligência artificial superpoderosa que pode controlar o clima do planeta. Ele tem a tarefa de trazer os níveis de dióxido de carbono na atmosfera de volta aos níveis pré-industriais.

Image
Image

“O sistema vai considerar que a forma mais eficaz de fazer isso é destruindo pessoas. Eles produzem gás carbônico”, afirma o professor.

“Isso pode ser contornado, por exemplo, tornando-a condição de não se livrar das pessoas. O que o sistema fará então? Ela fará com que cada vez menos crianças nasçam até que as pessoas desapareçam por completo."

Este é um exemplo do que a inteligência artificial pode levar sob instruções humanas mal concebidas.

Superinteligência

Os sistemas de IA que existem hoje têm aplicativos direcionados de maneira restrita. Eles são projetados para resolver problemas claramente definidos em uma área, dizem cientistas do Centro para o Estudo de Riscos Existenciais da Universidade de Cambridge.

O momento triunfante dessa filosofia de IA foi a vitória do computador Deep Blue sobre o atual campeão mundial de xadrez Garry Kasparov em 1997.

* A vitória do Deep Blue sobre Kasparov em 1997 foi um triunfo da IA
* A vitória do Deep Blue sobre Kasparov em 1997 foi um triunfo da IA

* A vitória do Deep Blue sobre Kasparov em 1997 foi um triunfo da IA.

Mas o Deep Blue foi criado exclusivamente para o jogo de xadrez. No jogo de damas, ele teria perdido para um aluno da quinta série.

Avanços recentes em inteligência artificial nos trouxeram programas muito diferentes.

Por exemplo, o programa AlphaGo Zero aprendeu a jogar Go sozinho, sem usar dados de jogos anteriores jogados por pessoas, e em apenas três dias jogando consigo mesmo, atingiu um nível inatingível para uma pessoa comum.

Algoritmos de aprendizado profundo foram usados para criar AlphaGo Zero. Isso significa que relativamente pouco trabalho humano foi necessário para desenvolver o programa.

Ao mesmo tempo, AlphaGo Zero sabe como jogar bem xadrez e shogi.

Lembre-se de que o programa é totalmente autodidata. Isso pode causar preocupação para alguns.

“À medida que a IA se torna mais poderosa e versátil, existe o risco de se tornar superinteligente, ou seja, ultrapassar os humanos em muitas ou em todas as áreas”, diz o Centro de Estudos de Riscos Existenciais.

Não sabemos o que queremos

O professor Russell acredita que simplesmente dar tarefas muito específicas à IA não é uma saída, porque os próprios humanos não são capazes de formulá-las bem o suficiente.

Image
Image

“Não percebemos que não gostamos de algo até que aconteça”, diz ele.

“Precisamos mudar a abordagem básica para a criação de sistemas de IA”, acrescenta o professor. Ele acredita que dar uma tarefa aos robôs, que eles realizam, é fundamentalmente errado.

“O sistema deve entender que o objetivo não é claro para ele. ele diz. - Quando esses sistemas são criados, eles realmente dependem da pessoa. Eles começam a pedir permissão antes de fazer algo porque não têm certeza se você quer."

E o mais importante, diz o professor, eles não vão resistir se você decidir desligá-los, porque eles são projetados para não fazer o que você não gosta.

Lâmpada de aladim

A IA hoje é criada como se fosse um gênio de uma lâmpada, diz o professor Russell. Você esfrega a lâmpada e diz: "Quero que isso e aquilo aconteçam".

Em 2001 * A Space Odyssey * de Stanley Kubrick, um computador superinteligente se revolta contra humanos que decidem fechá-lo
Em 2001 * A Space Odyssey * de Stanley Kubrick, um computador superinteligente se revolta contra humanos que decidem fechá-lo

Em 2001 * A Space Odyssey * de Stanley Kubrick, um computador superinteligente se revolta contra humanos que decidem fechá-lo.

E se a inteligência artificial for poderosa o suficiente, ela fará exatamente o que você pedir.

"O problema com o gim é que o terceiro desejo é sempre cancelar os dois primeiros, porque a pessoa os formulou incorretamente."

“Uma máquina que persegue o objetivo errado se torna de fato o inimigo da humanidade, e esse inimigo é muito mais forte do que nós”, conclui o cientista.

Recomendado: