O Google Não Quer Criar A Skynet Um Dia, Então Está Criando Um Switch Para IA - Visão Alternativa

O Google Não Quer Criar A Skynet Um Dia, Então Está Criando Um Switch Para IA - Visão Alternativa
O Google Não Quer Criar A Skynet Um Dia, Então Está Criando Um Switch Para IA - Visão Alternativa
Anonim

Existem dois lados opostos principais nas questões e discussões sobre o futuro da inteligência artificial. Em um canto estão empresas como Google, Facebook, Amazon e Microsoft investindo agressivamente em tecnologia para tornar os sistemas de IA mais inteligentes, enquanto no outro estão os grandes pensadores de nosso tempo, como Elon Musk e Stephen Hawking, que acreditam que o desenvolvimento da IA é semelhante a um "feitiço demoníaco".

Uma das empresas de IA mais avançadas, DeepMind, de propriedade do Google, criou medidas de segurança no caso de uma pessoa precisar "assumir o controle de um robô, cuja falha pode levar a consequências irreparáveis." Podemos supor que estamos falando sobre … "matar todas as pessoas". Claro que, na realidade, a medida tomada não é um indício de um possível apocalipse, mas sim sobre medidas de segurança associadas a robôs inteligentes que funcionam e funcionarão no futuro em várias fábricas e fábricas.

O documento publicado com prescrições é um trabalho conjunto da DeepMind e do Instituto Oxford para o Futuro da Humanidade, que, como o nome indica, trata de questões que permitirão que essa mesma humanidade chegue ao futuro. Durante décadas, o diretor fundador do instituto, Nick Bostrom, falou muito vividamente sobre os possíveis perigos do desenvolvimento da inteligência artificial e escreveu mais de um livro sobre o assunto, no qual discutia as consequências da criação de robôs superinteligentes.

O guia sobre o qual estamos falando hoje, denominado “Agentes com deficiência com segurança”, explora como desabilitar a IA se ela fizer algo que o operador humano não deseja fazer. O trabalho consiste em vários cálculos e fórmulas que 99% de nós provavelmente não entenderemos. Portanto, para simplificar, estamos falando de um "botão vermelho" que pode desativar a IA.

Você pode rir e se perguntar, mas os pioneiros da robótica e da IA estão assistindo aos mesmos filmes de ficção científica que nós. Aquelas em que os robôs descobriram uma vez como ignorar o comando de desligamento. Portanto, agora estaremos prontos para isso. O documento publicado descreve métodos e soluções para garantir que o "agente treinável" (leia-se IA) não possa aprender a ignorar ou prevenir o impacto do ambiente externo ou do operador humano.

Isso pode parecer um exagero, especialmente quando você considera que a IA mais avançada do momento só é boa em jogos de tabuleiro. No entanto, Bostrom acredita que antes de começarmos a criar IA do nível do cérebro humano, medidas adequadas devem ser tomadas:

“Assim que a inteligência artificial atingir o nível humano, um grande salto no desenvolvimento é esperado em muitas áreas. Além disso, logo depois, os próprios AIs estarão criando novos AIs. Basta avaliar essas perspectivas e ao mesmo tempo os possíveis perigos. Portanto, é melhor exagerar do que perder."

NIKOLAY KHIZHNYAK

Vídeo promocional:

Recomendado: