Stephen Hawking Considerou A Inteligência Artificial O Maior Erro Da História - Visão Alternativa

Stephen Hawking Considerou A Inteligência Artificial O Maior Erro Da História - Visão Alternativa
Stephen Hawking Considerou A Inteligência Artificial O Maior Erro Da História - Visão Alternativa

Vídeo: Stephen Hawking Considerou A Inteligência Artificial O Maior Erro Da História - Visão Alternativa

Vídeo: Stephen Hawking Considerou A Inteligência Artificial O Maior Erro Da História - Visão Alternativa
Vídeo: Antes de morrer, Stephen Hawking fez este alerta - uma trágica previsão para o futuro da humanidade! 2024, Setembro
Anonim

O famoso físico britânico Stephen Hawking, em artigo inspirado no filme de ficção científica "Transcendence", estrelado por Johnny Depp, disse que subestimar a ameaça da inteligência artificial pode ser o maior erro da história humana.

Em um artigo em coautoria com o professor de ciência da computação Stuart Russell da Universidade da Califórnia em Berkeley e os professores de física Max Tegmark e Frank Wilczek do MIT, Hawking aponta alguns avanços na inteligência artificial, observando os carros autônomos, o assistente de voz de Siri e o supercomputador. o vencedor do homem no jogo de perguntas Jeopardy TV.

“Todas essas conquistas empalidecem em relação ao que nos espera nas próximas décadas. A criação bem-sucedida da inteligência artificial será o maior evento da história da humanidade. Infelizmente, pode ser o último, se não aprendermos a evitar riscos”, Hawking é citado pelo jornal britânico The Independent.

Os professores escrevem que no futuro pode acontecer que ninguém e nada possa impedir o autoaperfeiçoamento de máquinas com inteligência desumana. E isso dará início ao processo da chamada singularidade tecnológica, que significa desenvolvimento tecnológico extremamente rápido. No filme com a participação de Depp, a palavra "transcendência" é usada neste sentido.

Imagine essa tecnologia ultrapassando os humanos e impulsionando os mercados financeiros, a pesquisa científica, os humanos e o desenvolvimento de armas além de nossa compreensão. Se o efeito de curto prazo da inteligência artificial depende de quem a controla, o efeito de longo prazo depende se ela pode ser controlada.

É difícil dizer quais as consequências que a inteligência artificial pode ter sobre os humanos. Hawking acredita que há poucas pesquisas sérias dedicadas a essas questões fora de organizações sem fins lucrativos como o Centro de Cambridge para o Estudo de Riscos Existenciais, o Instituto para o Futuro da Humanidade e institutos de pesquisa para inteligência de máquina e vida futura.

Segundo ele, cada um de nós deve se perguntar o que podemos fazer agora para evitar o pior cenário do futuro.

Recomendado: