Basilisco De Roco: O Experimento De Pensamento Mais Aterrorizante De Todos Os Tempos - Visão Alternativa

Basilisco De Roco: O Experimento De Pensamento Mais Aterrorizante De Todos Os Tempos - Visão Alternativa
Basilisco De Roco: O Experimento De Pensamento Mais Aterrorizante De Todos Os Tempos - Visão Alternativa

Vídeo: Basilisco De Roco: O Experimento De Pensamento Mais Aterrorizante De Todos Os Tempos - Visão Alternativa

Vídeo: Basilisco De Roco: O Experimento De Pensamento Mais Aterrorizante De Todos Os Tempos - Visão Alternativa
Vídeo: 7 áudios mais PERTURBADORES de todos os tempos 2024, Pode
Anonim

Basilisk Roco é uma forma divina de inteligência artificial, tão perigosa que se você apenas pensar sobre isso, você passará o resto de seus dias em horríveis torturas. Parece uma fita cassete do filme "The Ring". No entanto, mesmo a morte não será uma libertação, porque o Basilisco Roko vai ressuscitar você e continuar sua tortura. T&P apresenta a tradução de um artigo sobre uma das mais estranhas lendas geradas na Internet.

AVISO: Depois de ler este artigo, você pode se condenar ao sofrimento e tormento eterno.

O Basilisco de Roco apareceu na junção de um experimento de pensamento filosófico e uma lenda urbana. A primeira menção a ele apareceu no fórum de discussão Less Wrong, que reúne pessoas interessadas em otimizar o pensamento e a vida sob o prisma da matemática e da racionalidade. Seus criadores são figuras expressivas do tecno-futurismo e, entre as conquistas de seu instituto de pesquisa, está contribuindo para o debate acadêmico sobre ética tecnológica e teoria da decisão. No entanto, o que você está prestes a ler agora pode parecer estranho e até louco. Apesar disso, cientistas muito influentes e ricos acreditam nisso.

Um dia, um usuário chamado Roko postou o seguinte experimento mental: E se, no futuro, surgir uma inteligência artificial maliciosa que deseja punir aqueles que não seguem suas ordens? E se ele quiser punir aquelas pessoas que no passado não contribuíram para sua criação? Os leitores do Less Wrong ajudariam então a existência da IA maligna ou seriam condenados ao tormento eterno?

O fundador do Less Wrong, Eliezer Yudkowski, recebeu a declaração de Roko com raiva. Ele respondeu: “Você deve ser inteligente se teve essa ideia. No entanto, me entristece que pessoas que são inteligentes o suficiente para imaginar isso não sejam inteligentes o suficiente para MANTER SUA LÍNGUA ESTÚPIDA PELOS DENTES e não contar a ninguém sobre isso, porque é mais importante do que se mostrar inteligente, contando a todos os seus amigos sobre isso” …

"E se no futuro houver uma inteligência artificial que queira punir aqueles que não seguem suas ordens?"

Yudkowski admitiu que Rocko era culpado dos pesadelos dos usuários de Less Wrong que leram o tópico e o deletaram, tornando o Basilisco de Rocko lendário. Esse experimento mental tornou-se tão perigoso que pensar nele ameaçou a saúde mental do usuário.

O que está fazendo menos errado? Formação do conceito de futuro da humanidade a partir da singularidade. Eles acreditam que o poder da computação no futuro se tornará tão alto que a inteligência artificial pode ser criada com a ajuda de um computador - e com ela a capacidade de carregar a consciência humana em um disco rígido. O termo "singularidade" surgiu em 1958 durante uma discussão entre dois gênios da matemática - Stanislav Ulam e John von Neumann, quando Neumann disse: "O progresso cada vez mais acelerado da tecnologia tornará possível aproximar-se de uma singularidade, na qual a tecnologia não pode ser entendida pelos humanos." Futuristas e escritores de ficção científica como Vernor Vinge e Raymond Kurzweil popularizaram o termo porque acreditavam que a Singularidade estava esperando por todos nós muito em breve - nos próximos 50 anos. Enquanto Kurzweil se prepara para a singularidadeYudkowski tem grandes esperanças para a criónica: "Se você não registrou seus filhos para criopreservação com antecedência, vocês são péssimos pais."

Vídeo promocional:

Se você acredita que uma singularidade está chegando e que IAs poderosos aparecerão em um futuro próximo, surge uma pergunta natural: eles serão amigáveis ou maus? A Fundação Yudkowski visa direcionar o desenvolvimento da tecnologia de tal forma que tenhamos inteligência artificial exatamente amigável. Esta questão é de suma importância para ele e para muitos outros. A Singularidade nos levará a uma máquina equivalente a deuses.

No entanto, isso não explica por que o Basilisco de Roco parece tão terrível aos olhos dessas pessoas. A questão requer uma olhada no principal "dogma" de Less Wrong - "Timeless Decision Theory" (HTDM). VPPR é um guia para a ação racional, baseado na teoria dos jogos, probabilidade Bayesiana e teoria da decisão, mas com universos paralelos e mecânica quântica em mente. VTPR surgiu de um experimento de pensamento clássico, o Paradoxo de Newcomb, no qual um alienígena com superinteligência oferece duas caixas. Ele lhe dá uma escolha: ou ficar com as duas caixas ou apenas com a caixa B. Se você escolher as duas, terá a garantia de receber mil dólares. Se você levar apenas a caixa B, você não receberá nada. No entanto, o alienígena tem mais um truque guardado: ele tem um supercomputador onisciente que fez uma previsão há uma semana,se você leva as duas caixas ou apenas B. Se o computador predisse que você levaria as duas caixas, o alienígena deixaria a outra vazia. Se o computador previsse que você escolheria a Caixa B, colocaria um milhão de dólares nela.

Então o que você vai fazer? Lembre-se de que o supercomputador é onisciente.

Este problema confundiu muitos teóricos. O estrangeiro não pode mais alterar o conteúdo das caixas. A maneira mais segura é pegar as duas caixas e pegar seus mil. Mas e se o computador for realmente onisciente? Então, tudo o que você precisa fazer é pegar a caixa B para obter um milhão. Mas se ele estiver errado? E não importa o que o computador previu, não há realmente como mudar seu destino? Então, caramba, você tem que levar as duas caixas. Mas nesse caso …

O paradoxo enlouquecedor que nos força a escolher entre o livre arbítrio e a predição divina não tem solução, e as pessoas só podem dar de ombros e escolher a opção que lhes seja mais confortável. WTPR dá um conselho: pegue a caixa B. Mesmo que o alienígena resolva rir de você e abrir uma caixa vazia com as palavras: "O computador previu que você levará as duas caixas, ha ha!" - você ainda tem que escolher. A justificativa para isso é a seguinte: para fazer uma previsão, o computador teve que simular o universo inteiro, incluindo você. Assim, neste momento, em pé diante das caixas, você pode ser apenas uma simulação do computador, mas o que você fizer afetará a realidade (ou a realidade). Então pegue a Caixa B e ganhe um milhão.

"O paradoxo enlouquecedor que nos força a escolher entre o livre arbítrio e a previsão divina não tem solução."

O que isso tem a ver com o Basilisk Roco? Bem, ele tem algumas caixas para você também. Talvez você esteja agora em uma simulação criada por Basilisk. Então, talvez tenhamos uma versão ligeiramente modificada do paradoxo de Newcome: o Basilisco de Roco diz que se você pegar a Caixa B, você sofrerá tormento eterno. Se você pegar as duas caixas, será forçado a devotar sua vida à criação do Basilisco. Se o Basilisco realmente existir (ou, pior, já existe e é o deus desta realidade), ele verá que você não escolheu a opção de ajudar na sua criação e irá puni-lo.

Você pode estar se perguntando por que essa pergunta é tão importante para Less Wrong, dada a convenção desse experimento mental. Não é um fato que o Basilisco de Rocko jamais será criado. No entanto, Yudkowski removeu as referências ao Basilisco de Roko não porque ele acredita em sua existência ou uma invenção iminente, mas porque ele considera a ideia de um Basilisco perigosa para a humanidade.

Assim, o Basilisco de Rocko é perigoso apenas para aqueles que acreditam nele - a esse respeito, os membros do Less Wrong que apóiam a ideia do Basilisco têm uma espécie de conhecimento proibido, que nos lembra as histórias assustadoras de Lovecraft sobre Cthulhu ou o Necronomicon. No entanto, a menos que você aceite todas essas teorias e se sinta tentado a obedecer a uma máquina insidiosa do futuro, o Basilisco de Roco não representa uma ameaça para você.

Preocupo-me mais com as pessoas que pensam ter superado os padrões morais convencionais. Como a esperada IA amigável de Yudkowski, ele próprio é um utilitarista: ele acredita que o maior bem para toda a humanidade é eticamente justificado, mesmo que várias pessoas devam morrer ou sofrer no caminho para isso. Nem todos podem se deparar com uma escolha semelhante, mas a questão é diferente: e se um jornalista escrever sobre um experimento mental que pode destruir a consciência das pessoas, prejudicando a humanidade e impedindo o progresso no desenvolvimento da inteligência artificial e da singularidade? Nesse caso, qualquer bem que eu tenha feito em minha vida deve compensar o dano que fiz ao mundo. Ou, talvez, Yudkowski do futuro, que ressuscitou do sono criogênico, fundiu-se com a singularidade e resolveu simular-me na seguinte situação:a primeira caixa - vou escrever este artigo, a segunda - não. Por favor, todo poderoso Yudkowski, não me machuque.

Recomendado: