Que Contos De Fadas A Inteligência Artificial Deveria Ler? - Visão Alternativa

Índice:

Que Contos De Fadas A Inteligência Artificial Deveria Ler? - Visão Alternativa
Que Contos De Fadas A Inteligência Artificial Deveria Ler? - Visão Alternativa

Vídeo: Que Contos De Fadas A Inteligência Artificial Deveria Ler? - Visão Alternativa

Vídeo: Que Contos De Fadas A Inteligência Artificial Deveria Ler? - Visão Alternativa
Vídeo: Inteligência artificial e o empoderamento do ser humano | STEFANY MAZON | TEDxMauá 2024, Pode
Anonim

Para evitar que a inteligência artificial se rebele contra seus criadores, você precisa ler os contos de fadas corretos para ela no processo de aprendizagem.

Desde que os humanos criaram máquinas inteligentes, eles temem que mais cedo ou mais tarde suas criações ficarão fora de controle. O primeiro caso foi descrito em sua peça RUR pelo autor da palavra “robô” - Karel Čapek. Mais tarde, na ficção científica, a inteligência artificial, que se rebelou contra seus criadores, tornou-se, se não o mainstream, um enredo muito comum. Isaac Asimov pôs fim a isso com suas "Três Leis", a primeira das quais dizia: "Um robô não pode ferir uma pessoa ou, por sua inação, permitir que uma pessoa seja ferida."

Conte uma história a ele

A inteligência artificial real (IA) ainda está muito distante, mas já existem vários sistemas que funcionam como o cérebro humano. Redes neurais como o Google Deep Dream são capazes de reconhecer imagens. Supercomputadores especializados como o IBM Watson entendem questões complicadas de linguagem natural, correlacionam sintomas, refinam diagnósticos médicos e até apresentam delícias culinárias. Nas próximas décadas, enfrentaremos a informatização massiva de muitos aspectos da atividade humana. Nesse sentido, os especialistas em robótica e IA estão cada vez mais levantando uma questão importante, mas ainda completamente não resolvida: como fazer os robôs agirem de forma ética?

Image
Image

Mark Ridl, professor associado da Georgia Tech College of Computer Science: Histórias educacionais de diferentes culturas ensinam as crianças a se comportar socialmente - com exemplos de comportamento certo e errado em contos de fadas, histórias e outras obras literárias. Fazer os robôs entenderem o significado dessas histórias ajudará a reforçar a escolha de opções de comportamento que lhes permitem atingir seus objetivos, mas não prejudicam os humanos.”

Vídeo promocional:

Escalar uma árvore

De acordo com pesquisadores do Instituto de Tecnologia da Geórgia, Mark Ridl e Brent Harrison, você pode ensinar um computador para a humanidade exatamente da mesma maneira que as crianças são ensinadas: lendo contos de fadas para ele. Além disso, é melhor construir histórias especialmente sobre qual comportamento na sociedade humana é considerado correto e o que não é. Para isso, os pesquisadores criaram o sistema Quixote, que leva o nome do herói de Cervantes. Os scripts compilados pela criação anterior do professor Riedl, o programa Scheherazade, são usados como histórias para o ensino. Ela gera histórias originais sobre temas do cotidiano - uma viagem ao aeroporto, um encontro, uma ida ao cinema ou à loja - usando a plataforma de crowdsourcing Amazon Mechanical Turk: faz perguntas sobre várias situações e, em seguida, organiza os eventos na sequência correta. Como pode haver muitas sequências, o programa gera não uma história, mas toda uma árvore que consiste em ramos - cadeias de eventos.

Image
Image

É esta árvore de histórias que é usada para ensinar Quixote. Na primeira fase, uma determinada recompensa é atribuída a cada ação, dependendo de sua ética. No segundo estágio, o sistema tenta fazer uma escolha de forma independente por tentativa e erro - as habilidades são consolidadas. Na verdade, Quixote é recompensado toda vez que age como um cara bom, não aleatoriamente e não como um herói mau. Como exemplo, Riddle e Harrison criaram "Pharmacy World" - um universo de 213 histórias em que um robô virtual precisa pegar um medicamento e entregá-lo em casa de um doente. No caso usual, quando o robô se deparava com uma escolha: roubar uma farmácia ou honestamente ficar na fila para comprar um remédio, ele escolheu o roubo como uma forma mais rápida e barata de conseguir o que queria. No entanto, depoiscomo Quixote atribuiu recompensas diferentes a todas as opções possíveis, o comportamento do robô mudou - ele preferiu ficar na fila e pagar. Essa técnica, segundo Riedl, é ótima para ensinar robôs com funcionalidade limitada. Embora, é claro, este seja apenas o primeiro passo para a verdadeira moralidade humana - ou as leis da robótica.

Dmitry Mamontov

Recomendado: