Humanidade Perigosa: Por Que Precisamos De Inteligência Artificial Inteligente? - Visão Alternativa

Índice:

Humanidade Perigosa: Por Que Precisamos De Inteligência Artificial Inteligente? - Visão Alternativa
Humanidade Perigosa: Por Que Precisamos De Inteligência Artificial Inteligente? - Visão Alternativa

Vídeo: Humanidade Perigosa: Por Que Precisamos De Inteligência Artificial Inteligente? - Visão Alternativa

Vídeo: Humanidade Perigosa: Por Que Precisamos De Inteligência Artificial Inteligente? - Visão Alternativa
Vídeo: O Perigo da INTELIGÊNCIA ARTIFICIAL 2024, Pode
Anonim

Quando Norbert Wiener, o pai da cibernética, escreveu seu livro The Human Uses of Human Beings, em 1950, os tubos de vácuo ainda eram os principais blocos de construção eletrônicos e havia, de fato, apenas alguns computadores em funcionamento. No entanto, ele imaginou o futuro que agora vemos com uma precisão sem precedentes, confundindo apenas pequenos detalhes.

Antes de qualquer outro filósofo da inteligência artificial, ele percebeu que a IA não apenas imitará - e substituirá - os seres humanos em muitos tipos de atividades intelectuais, mas também mudará as pessoas no processo. “Somos apenas redemoinhos em um rio de água corrente”, escreveu ele. “Não somos algo que apenas vive, somos modelos que se perpetuam”.

Por exemplo, quando surgem muitas oportunidades atraentes, estamos dispostos a pagar e aceitar os pequenos custos de administração de uma empresa para acessar novas oportunidades. E logo nos tornamos dependentes de novas ferramentas, perdemos a capacidade de existir sem elas. As opções tornam-se obrigatórias.

Esta é uma história de evolução muito antiga, e muitos de seus capítulos são bem conhecidos por nós. A maioria dos mamíferos pode sintetizar sua própria vitamina C, mas os primatas comedores de frutas perderam essa capacidade interna. Os padrões auto-repetitivos que chamamos de humanos agora dependem de roupas, alimentos processados, vitaminas, seringas, cartões de crédito, smartphones e a Internet. E amanhã, senão hoje, da inteligência artificial.

Wiener previu vários problemas com esse estado de coisas que Alan Turing e outros primeiros otimistas da IA negligenciaram em grande parte. A verdadeira ameaça, disse ele, era:

… é que tais máquinas, embora indefesas em si mesmas, podem ser usadas por humanos ou bloqueá-los para aumentar seu controle sobre o resto da raça, ou os líderes políticos podem tentar assumir o controle de suas populações usando métodos políticos em vez das próprias máquinas, tão estreitos e indiferentes ao homem, como se fossem inventados mecanicamente.

Obviamente, esses perigos agora são muito relevantes.

Na mídia, por exemplo, as inovações em áudio e vídeo digital nos permitem pagar um pequeno preço (aos olhos dos audiófilos e cinéfilos) para nos afastarmos dos formatos analógicos e, em troca, receber uma maneira extremamente simples - muito simples - de reproduzir gravações quase sem restrições.

Vídeo promocional:

Image
Image

Mas existe um enorme custo oculto. O ministério da verdade de Orwell tornou-se uma oportunidade real. As técnicas de IA para criar "registros" falsos virtualmente indistinguíveis tornam as ferramentas que usamos para investigações obsoletas nos últimos 150 anos.

Só temos que abandonar a breve era de evidências fotográficas e retornar ao velho mundo onde a memória e a confiança humanas eram o padrão ouro. Ou podemos desenvolver novos métodos de defesa e ataque na batalha pela verdade. Um dos exemplos recentes mais empolgantes é o fato de que é muito mais barato destruir uma reputação do que ganhar e proteger a mesma. Wiener viu esse fenômeno de forma muito ampla: "No longo prazo, não haverá diferença entre armar a si mesmo e armar o inimigo." A era da informação também se tornou uma era de desinformação.

O que podemos fazer? A chave é a mesma observação de Wiener de que "essas máquinas" são "elas mesmas indefesas". Criamos ferramentas, não colegas, e a verdadeira ameaça é que não vemos a diferença.

A inteligência artificial em sua forma atual é parasita da inteligência humana. Ele muito sem cerimônia toma posse de tudo o que os criadores humanos criaram e desenha padrões - incluindo nossos hábitos mais secretos. Estas máquinas ainda não têm objetivos ou estratégias, não são capazes de autocrítica e inovação, apenas estudam nossas bases de dados, sem pensamentos e objetivos próprios.

Eles são, como diz Wiener, desamparados, não no sentido de que estão acorrentados ou imobilizados, não, eles não são agentes de forma alguma - eles não têm a capacidade de "agir a partir de causas", como Kant diria.

A longo prazo, “IA forte”, ou inteligência artificial geral, é possível em princípio, mas não desejável. A IA ainda mais limitada que é possível na prática hoje não será má. Mas representa uma ameaça - em parte porque pode ser confundido com uma poderosa IA.

Quão forte é a inteligência artificial hoje?

A lacuna entre os sistemas atuais e os sistemas de ficção científica que inundam a imaginação popular ainda é enorme, embora muitas pessoas, tanto amadores quanto profissionais, tendam a subestimá-la. Vamos dar uma olhada no Watson da IBM, que pode muito bem ser respeitável nos dias de hoje.

Esse supercomputador é o resultado de um processo de P&D (pesquisa e desenvolvimento) em escala extremamente grande que envolveu muitas pessoas e projetos de inteligência ao longo de muitos séculos e usa milhares de vezes mais energia do que o cérebro humano. Sua vitória no Jeopardy! foi um verdadeiro triunfo possibilitado pelas restrições estereotipadas das regras de Jeopardy !, mas mesmo essas regras tiveram que ser revisadas para que ele participasse. Tive que abrir mão de um pouco de versatilidade e adicionar humanidade para fazer o show.

O Watson é uma empresa ruim, apesar dos anúncios enganosos da IBM que prometem habilidade de conversação de IA em ambos os níveis, e transformar o Watson em um agente multifacetado confiável seria como transformar uma calculadora em Watson. O Watson pode ser um bom caso de computação para tal agente, mas sim um cerebelo ou amígdala ao invés de uma mente - na melhor das hipóteses, um subsistema de propósito especial servindo como um suporte, mas não quase um sistema para planejar e formular metas com base na experiência de conversação adquirida.

Por que desejaríamos criar um agente pensante e criativo a partir do Watson? Talvez a ideia brilhante de Turing - o famoso teste de Turing - nos tenha atraído para uma armadilha: ficamos obcecados em criar pelo menos a ilusão de uma pessoa real sentada em frente a uma tela, contornando o "vale sinistro".

O perigo é que, desde que Turing apresentou sua tarefa - que era principalmente uma tarefa para enganar os juízes - os criadores da IA tentaram realizá-la usando divertidas bonecas humanóides, versões de "desenhos animados" que fascinam e desarmam os não iniciados. ELIZA de Joseph Weisenbaum, o primeiro chatbot, foi um excelente exemplo de criação de tal ilusão, mas com um algoritmo extremamente simples que poderia convencer as pessoas de que estavam tendo conversas sinceras e sinceras com outras pessoas.

Ele estava preocupado com a facilidade com que as pessoas estão dispostas a acreditar nisso. E se descobrimos alguma coisa com o Teste de Turing Limitado do Prêmio Lebner anual, é que mesmo as pessoas mais inteligentes que não são versadas em programação de computadores facilmente caem nesses truques simples.

A atitude das pessoas em IA em relação a tais técnicas varia de crítica a recompensadora, e o consenso é que esses truques não são muito profundos, mas podem ser úteis. Uma mudança de atitude que seria muito bem-vinda seria uma admissão sincera de que andróides pintados de bonecas são anúncios falsos que devem ser julgados, não incentivados.

Como isso pode ser alcançado? Assim que entendermos que as pessoas começam a tomar decisões de vida ou morte seguindo o "conselho" dos sistemas de IA, cujas operações internas são quase incompreensíveis, veremos um bom motivo para aqueles que insistem que as pessoas confiem em tais sistemas, para começar a confiar nas normas de moralidade e lei.

Os sistemas de inteligência artificial são ferramentas muito poderosas. Tão poderoso que mesmo os especialistas têm um bom motivo para não confiar em seu próprio julgamento quando há “julgamentos” representados por essas ferramentas. Mas se esses usuários das ferramentas vão se beneficiar, financeiramente ou não, com a popularização dessas ferramentas, eles devem ter certeza de que sabem como fazê-lo com total responsabilidade, máximo controle e justificativa.

Licenciar e aprovar os operadores de tais sistemas - assim como licenciamos farmacêuticos, operadores de guindastes e outros profissionais cujos erros e erros de julgamento podem ter consequências terríveis - talvez, com o apoio de seguradoras e outras organizações, obrigue os criadores de sistemas de IA a percorrer o longo caminho buscar as fragilidades e deficiências de seus produtos, e também treinar quem vai trabalhar com eles.

Pode-se imaginar uma espécie de teste de Turing reverso em que o juiz será o sujeito da avaliação; até que encontre fraquezas, violação de limites, lacunas no sistema, ele não receberá uma licença. Tal juiz exigirá treinamento sério para obter uma certificação. O desejo de atribuir a um objeto a capacidade humana de pensar, como costumamos fazer quando encontramos um agente inteligente, é muito, muito forte.

Na verdade, a capacidade de resistir à vontade de ver algo humanizado é uma coisa estranha. Muitas pessoas achariam duvidoso nutrir tal talento, porque mesmo os usuários mais pragmáticos do sistema são ocasionalmente "amigáveis" com suas ferramentas.

Independentemente de quão cuidadosamente os designers de IA escolham eliminar os falsos tons "humanos" em seus produtos, devemos esperar o florescimento de rótulos, soluções alternativas e distorções toleráveis da "compreensão" real de ambos os sistemas e seus operadores. Da mesma forma que drogas com uma longa lista de efeitos colaterais são anunciadas na TV, ou o álcool é anunciado com abundância de letras miúdas com todos os avisos exigidos por lei, os desenvolvedores de inteligência artificial cumprirão a lei, mas se sofisticarão nos avisos.

Por que precisamos de inteligência artificial?

Não precisamos de agentes conscientes artificiais. Há uma série de agentes naturais conscientes que são suficientes para realizar qualquer tarefa para profissionais e indivíduos privilegiados. Precisamos de ferramentas inteligentes. As ferramentas não têm direitos e não devem ter sentimentos que possam ser feridos ou mal utilizados.

Uma razão para não fazer agentes conscientes artificiais é que embora eles possam se tornar autônomos (e, em princípio, eles podem ser tão autônomos, auto-aprimoráveis ou autocriadores quanto qualquer pessoa), eles não deveriam - sem permissão especial - compartilhar com nossos agentes naturais conscientes, nossa vulnerabilidade ou nossa mortalidade.

Daniel Dennett, professor de filosofia na Tufts University, certa vez desafiou alunos em um workshop sobre agentes artificiais e autonomia: Dê-me as especificações de um robô que pode assinar um contrato com você - não um substituto pertencente a outra pessoa, mas por si mesmo. Não se trata de compreender as razões ou de manipular a caneta no papel, mas sim da titularidade e bem merecida titularidade do estatuto jurídico e da responsabilidade moral. Os menores não podem assinar esses contratos, assim como os deficientes, cujo estatuto jurídico obriga à tutela e impõe responsabilidade aos tutores.

O problema com os robôs que desejam alcançar tal status exaltado é que, como o Superman, eles são vulneráveis demais para fazer tais afirmações. Se eles se recusarem, o que acontecerá? Qual será a penalidade por quebrar uma promessa? Eles serão trancados em uma gaiola ou desmontados? Uma prisão para inteligência artificial não será inconveniente a menos que primeiro carregemos a sede de liberdade que não pode ser ignorada ou desativada pela própria IA. A desmontagem do AI não elimina as informações armazenadas em seu disco e no software.

A facilidade de gravar e transmitir dados digitalmente - um avanço que permitiu que software e dados alcançassem, de fato, a imortalidade - torna os robôs invulneráveis. Se não parece óbvio, pense em como a moralidade das pessoas mudaria se pudéssemos apoiá-las todas as semanas. Pular de uma ponte sem elástico no domingo depois de um reforço na sexta-feira pode ser uma decisão precipitada, então você pode assistir à filmagem de sua morte prematura mais tarde.

É por isso que não estamos criando conscientes - gostaríamos de criar - agentes humanóides, mas sim um tipo completamente novo de criatura, alguns oráculos, inconscientes, sem medo da morte, sem distração de amor e ódio, sem personalidade: espelhos de verdade que quase certamente serão infectados mentiras.

O uso de seres humanos em breve mudará - mais uma vez - para sempre, mas se assumirmos a responsabilidade por nossa trajetória evolutiva, poderemos evitar perigos desnecessários.

Ilya Khel

Recomendado: