“Precisamos Pensar Agora Como Proteger A Inteligência Artificial” - Visão Alternativa

“Precisamos Pensar Agora Como Proteger A Inteligência Artificial” - Visão Alternativa
“Precisamos Pensar Agora Como Proteger A Inteligência Artificial” - Visão Alternativa

Vídeo: “Precisamos Pensar Agora Como Proteger A Inteligência Artificial” - Visão Alternativa

Vídeo: “Precisamos Pensar Agora Como Proteger A Inteligência Artificial” - Visão Alternativa
Vídeo: Inteligência artificial e o empoderamento do ser humano | STEFANY MAZON | TEDxMauá 2024, Setembro
Anonim

Stephen Hawking continua a "cruzada" contra a inteligência artificial (IA).

Durante a campanha altamente antecipada Ask Me Everything on Reddit, ele escreveu que o trabalho de desenvolvimento de um protocolo de segurança de IA deve ser feito agora, não em um futuro distante.

“Nosso objetivo não deve ser criar inteligência artificial abstrata, mas criar inteligência útil”, escreveu o famoso físico. “Levará décadas para descobrir como fazer isso, então vamos começar a pesquisar esse assunto agora, não na noite anterior. IA avançada”.

Hawking tem usado a fama para apoiar o movimento de segurança da IA desde 2014, quando co-escreveu um editorial com outros pesquisadores alertando sobre a ameaça existencial que as máquinas avançadas representam para a humanidade.

Outras notáveis personalidades da tecnologia, Elon Musk e Steve Wozniak, juntaram-se à Hawking. Antes disso, os três assinaram uma carta aberta pedindo o banimento de armas autônomas ou robôs de combate.

A expectativa de que a humanidade em breve criará inteligência artificial existe desde os anos 50 e ainda não se justificou. No entanto, a maioria dos cientistas de IA acredita que máquinas que são iguais em inteligência aos humanos aparecerão neste século.

Image
Image

Foto: ANDREW COWIE / AFP

Vídeo promocional:

Hawking avisa que a representação da inteligência artificial em filmes de ficção científica distorce o perigo real das máquinas. Filmes como O Exterminador do Futuro mostram robôs assassinos demoníacos procurando destruir a humanidade por motivos que a inteligência artificial real não possuía. Eles também tornam mais fácil mitigar o risco potencial de IA (como não construir ciborgues).

“A verdadeira ameaça da IA não é ser maligna, mas ser muito capaz. A superinteligência artificial é muito boa no desempenho de suas tarefas.

Se as tarefas dele não coincidirem com as nossas, teremos problemas - escreveu Hawking - você dificilmente odeia formigas, mas se você está encarregado de um projeto de energia verde e a área onde o formigueiro está localizado precisa ser inundada, as formigas estão sem sorte. Não vamos permitir que a humanidade se encontre na posição dessas formigas."

Nick Bostrom, um filósofo de IA, fantasia sobre cenários de fim do mundo quando um programa começa a funcionar na direção errada. Por exemplo, a inteligência artificial recebe a tarefa de desenvolver um plano para proteger o meio ambiente e, para resolver o problema da ecologia, decide destruir a humanidade.

Elon Musk já comprometeu US $ 10 milhões em pesquisas de segurança de IA para evitar que inteligência artificial destrutiva como a Skynet apareça no Terminator. Mas Hawking quer que as pessoas mudem sua percepção geral da IA.

“Por favor, diga aos seus alunos para pensarem não apenas em como criar IA, mas também em como garantir que ela seja usada para fins úteis”, disse Hawking a um instrutor que dá uma aula sobre inteligência artificial. “O surgimento de uma IA que transcende os humanos se tornará seja o melhor ou o pior acontecimento da história humana. Portanto, é importante que tudo corra como deve."

Recomendado: