As “Três Leis Da Robótica” Nos Protegerão? - Visão Alternativa

Índice:

As “Três Leis Da Robótica” Nos Protegerão? - Visão Alternativa
As “Três Leis Da Robótica” Nos Protegerão? - Visão Alternativa

Vídeo: As “Três Leis Da Robótica” Nos Protegerão? - Visão Alternativa

Vídeo: As “Três Leis Da Robótica” Nos Protegerão? - Visão Alternativa
Vídeo: As 3 leis da robótica! 2024, Abril
Anonim

Já se passaram 50 anos desde que Isaac Asimov apareceu com suas famosas Três Leis da Robótica - um conjunto de regras que qualquer robô que se preze deve seguir. Embora inicialmente fosse apenas um artifício literário, as três leis tornaram-se a receita original para evitar o "robotocalipse". Felizmente, há especialistas que procuram ter a certeza se as garantias de Azimov resistiram ao teste do tempo. Infelizmente, todos eles dizem não.

Para começar, vamos lembrar essas mesmas três leis:

Um robô não pode ferir uma pessoa ou, por sua inação, permitir que uma pessoa seja ferida.

Um robô deve obedecer a todas as ordens dadas por um humano, exceto quando essas ordens forem contrárias à Primeira Lei.

O robô deve cuidar de sua segurança na medida em que não contradiga a Primeira e a Segunda Leis.

Posteriormente, Azimov acrescentou uma quarta lei, ou zero, que precedia as outras em termos de prioridade:

Vídeo promocional:

0. Um robô não pode prejudicar uma pessoa, a menos que possa provar que será benéfico para toda a humanidade.

Image
Image

No universo de fantasia de Asimov, quase todos os robôs tiveram que seguir essas leis. Não eram apenas sugestões ou diretrizes - as leis eram integradas ao software. Além disso, essas regras não podem ser contornadas, reescritas ou revisadas.

Como o próprio Asimov mostrou, imperfeições, lacunas e ambigüidades nessas leis muitas vezes levavam a um comportamento estranho e ilógico dos robôs. As leis eram muito vagas e muitas vezes não conseguiam definir e distinguir "humanos" de "robôs". Além disso, os robôs podem infringir as leis sem saber se não houver informações completas disponíveis para eles. Além disso, um robô excessivamente astuto ou inteligência artificial precisava estar sob pressão para não reprogramar seu núcleo.

O ano é 2014, e muito do lugar-comum de nossas vidas às fantasias do século passado pode parecer pura fantasia. Muitas pessoas achavam que as leis de Asimov deveriam ter permanecido como um artifício literário. Mas o próprio Azimov observou em 1981 que suas leis poderiam funcionar. O Compute! ele indicou o seguinte:

“Quando alguém me pergunta como seria se minhas três leis da robótica fossem realmente usadas para definir o comportamento dos robôs, a resposta está pronta. Desde que, é claro, os robôs sejam flexíveis e versáteis o suficiente para exibir diferentes comportamentos. Minha resposta é sim, as três leis são a única maneira que os humanos podem interagir com robôs - ou qualquer outra coisa.

Quase trinta anos depois, nos aproximamos de uma realidade em que teremos robôs - ou, mais precisamente, a inteligência artificial que os controla - suficientemente flexíveis e versáteis para diferentes cursos de comportamento. Resta apenas uma questão de tempo: quando a máquina ultrapassar o homem em todos os aspectos, da força física ao poder da imaginação.

O assustador é que praticamente não há margem para erro. Se a superinteligência artificial for mal programada ou indiferente aos humanos, isso levará ao desastre. Devemos ter certeza de que a inteligência artificial está segura se quisermos sobreviver ao seu surgimento.

Responda à pergunta "as três leis de Azimov podem ajudar?" Dois teóricos da inteligência artificial assumiram: Ben Herzel (Aidyia Holdings) e Louis Helm, vice-diretor do Machine Intelligence Research Institute (MIRI) e editor executivo da revista Rockstar Research. Depois de conversar com eles, ficou claro que as leis de Asimov em geral não poderiam dar conta da tarefa atribuída a eles e, se precisarmos criar uma IA segura, teremos que desenvolver algo completamente diferente.

O futuro de Asim?

Image
Image

A conversa com Herzel e Helm começou com o que Asimov não se enganava, a previsão do futuro e onde ele estava errado.

“Acho que o tipo de robô que Asimov imaginou será possível em um futuro não muito distante”, responde Herzel. - No entanto, na maioria de seus mundos fictícios, o escritor presumiu que os robôs humanóides seriam o auge da robótica e da engenharia de inteligência artificial. Isso é improvável. Muito em breve, após atingir o status de robôs Azimov, a criação de superinteligência artificial e super robôs estarão disponíveis."

Assim, o típico mundo do futuro nas histórias de Asimov sobre robôs, segundo Herzel, será semelhante ao que vivemos hoje, mas com robôs inteligentes andando pelas ruas.

"É improvável que isso aconteça e, se acontecer, não demorará muito."

Para Helm, os robôs parecem ser completamente diferentes.

“A questão principal, que, a meu ver, será a mais importante para a humanidade, continua não sendo a regulação moral de um número gigantesco de humanóides semi-inteligentes, mas em última instância o desenvolvimento de formas avançadas de inteligência artificial (em qualquer corpo). Este desenvolvimento da superinteligência é um filtro pelo qual a humanidade deve passar no final. É por isso que desenvolver uma estratégia de segurança para essa transição é tão importante. Parece-me completamente estranho que robôs, andróides ou "emulações" existam por dez anos ou um pouco mais, até que a humanidade enfrente o problema real de desenvolver a ética da máquina para a superinteligência."

Um bom começo?

Image
Image

Considerando que as três leis de Asimov da robótica foram a primeira tentativa sincera de resolver um problema muito sério - o problema do comportamento seguro de máquinas com superinteligência artificial - vale a pena procurar aqueles momentos em que as leis ainda podem ser eficazes (ou pelo menos inspiradoras).

“Para ser honesto, não encontro nenhuma inspiração nessas três leis da robótica”, diz Helm. - A essência da ética da máquina é que eles não satisfazem a base da ética da máquina. Talvez as três leis da robótica sejam amplamente conhecidas, mas na realidade é inútil usá-las como base para a programação."

“Por alguma razão, um sistema de boa ética - chamado deontologia - tornou-se uma base não confiável para a ética. Vários filósofos estão tentando resolver os problemas da deontologia, mas eles são em sua maioria as mesmas pessoas que buscam "design inteligente" e "intervenção divina". Ninguém os leva a sério."

As desvantagens das três leis da robótica de Asimov resumem-se ao seguinte:

Adversarial por natureza

Com base em uma teoria ética obsoleta (deontologia)

Nem trabalhe na ficção

Herzel concorda:

“O propósito das três leis era quebrá-las de uma forma interessante; é por isso que suas histórias são especialmente divertidas. Portanto, as três leis podem permanecer apenas um exemplo moral de como não fazer isso. Se os tomarmos como base, inevitavelmente haverá lacunas neles”.

Herzel acredita que na realidade essas leis não vão funcionar, já que os termos de sua participação são ambíguos e permanecem sujeitos a interpretações - o que significa que são extremamente dependentes de quem faz as traduções.

Preconceito contra robôs?

Outro aspecto (e falha potencial) das Três Leis no aparente chauvinismo é a suposição de que os robôs devem permanecer, apesar de seu poder superior, sujeitos às necessidades e prioridades humanas.

“A sociedade do futuro de Azimov consiste inteiramente de chauvinistas: as pessoas têm muito mais direitos do que os robôs. As três leis da robótica foram criadas para manter essa ordem social."

Image
Image

Helm encara esse problema de maneira um pouco diferente, argumentando que, se nos encontrarmos em tal situação, isso por si só será uma evidência de que fomos longe demais.

“Acho que não seria sensato projetar um sistema de inteligência artificial ou um robô autoconsciente. E ao contrário de filmes ou livros em que os criadores da inteligência artificial "acidentalmente" chegam às máquinas inteligentes, não acredito que isso possa acontecer na vida real. Isso exigirá muito esforço e conhecimento. E a maioria dos designers de IA são pessoas eticamente experientes, então eles evitarão criar o que os filósofos chamam de "seres moralmente significativos". Especialmente quando eles podem facilmente criar uma máquina avançada que não tenha inclinações éticas."

Helm não está preocupado com a necessidade de desenvolver leis assimétricas para governar o valor dos robôs sobre os humanos, argumentando (e esperando) que os futuros criadores de inteligência artificial dependerão de algumas restrições éticas.

“Acho que os humanos são feitos de átomos, então, em teoria, um engenheiro pode criar uma forma de vida sintética ou um robô com um significado moral. Eu gostaria de pensar que ninguém vai fazer isso. Acho que a maioria das pessoas também. Mas, inevitavelmente, haverá um tolo que quer ser conhecido como um pioneiro, mesmo que seja antiético e estúpido."

Três Leis da Robótica 2.0?

Dadas as deficiências óbvias das três leis da robótica de Asimov, o recurso io9 fez a pergunta: elas podem ser corrigidas ou melhoradas? Na verdade, muitos escritores de ficção científica já tentaram isso várias vezes, aprimorando-o ao longo dos anos.

"Não", diz Helm. "Não há remendos para as três leis."

Além de sua natureza contraditória, as leis também são contraditórias por natureza.

"Eu sou um defensor de abordagens de ética de máquina que são mais cooperativas, mais consistentes e mais normativas, o que significa que podem se recuperar de mal-entendidos ou corrigir a programação incorreta."

Herzel ecoa as afirmações de Helm.

Definir um conjunto de preceitos éticos como o cerne da ética da máquina será inútil se a máquina for baseada em inteligência artificial geral flexível. Se for concebido como intuitivo, flexível, adaptativo ou ético - neste contexto, os preceitos éticos serão úteis para o sistema apenas como uma orientação aproximada para a aplicação de sua própria intuição ética. Mas, neste caso, os mandamentos não se tornarão a base do sistema ético, mas apenas um aspecto. Isso pode ser visto em exemplos humanos - os princípios éticos que estudamos funcionam, mas não como diretrizes, eles apenas impulsionam nossa intuição e instintos éticos. Somos praticamente independentes de princípios éticos."

Como criar inteligência artificial segura?

Dada a inadequação da abordagem legal, você pode perguntar a Gertzel e Helm sobre as abordagens modernas para o problema da "IA segura".

“Muito poucos pesquisadores de inteligência artificial em geral acreditam que seja possível criar um sistema que seja completamente seguro”, diz Herzel. "Mas isso não incomoda a maioria, já que nada pode ser garantido nesta vida."

Herzel acredita que, uma vez que criamos um sistema geral de inteligência artificial ou seu embrião, podemos conduzir pesquisas e experimentos que nos dirão muito mais sobre a ética da IA do que sabemos.

“Esperançosamente, assim podemos formular boas teorias sobre a ética da inteligência artificial que nos permitirão nos aprofundar neste assunto. Mas agora é bastante difícil teorizar sobre a ética da IA, uma vez que não temos apenas boas teorias, não temos teorias."

“E para as pessoas que assistiram a muitos exterminadores, o processo de criação de inteligência artificial pode parecer intimidante, pois não entendem a palavra“primitivo”neste contexto. No entanto, as mudanças mais radicais aconteceram desta forma."

"Quando um grupo de homens das cavernas inteligentes inventou a linguagem, eles não esperavam o desenvolvimento de uma sólida teoria formal da linguagem que pudesse ajudar a prever futuras mudanças causadas pelo surgimento da linguagem na sociedade."

Antes de considerar o desenvolvimento das próximas "três leis" como um problema técnico, você precisa fazer muita pesquisa. E é aqui que Helm e Herzel concordam.

“Meu colega do MIRI Luc Muelhauser resumiu nosso raciocínio da seguinte forma. Ele disse que os problemas geralmente mudam da filosofia para a matemática e depois para a engenharia. Muitas vezes, as perguntas certas são feitas à filosofia, mas da maneira mais impraticável. Ninguém pode dizer com certeza se houve algum progresso na resolução do problema. Se pudermos reformular os problemas filosóficos importantes de razão, identificação e valor em fórmulas precisas que um matemático pode manipular, então algum modelo pode ser construído. Um belo dia chegará à engenharia."

Helm acha esse problema difícil para a ciência e a filosofia, mas o progresso é possível.

“Não acredito que a filosofia seja capaz de resolver um problema que vem lutando há mais de 3.000 anos. Mas nós também não podemos pegar e começar a fazer modelos matemáticos de questões que não estão tecnicamente presentes. Ainda precisamos de muitos desenvolvimentos teóricos e até práticos."

Recomendado: