Inteligência Artificial: Um Inimigo Perigoso Ou Um Ajudante Amável - Visão Alternativa

Inteligência Artificial: Um Inimigo Perigoso Ou Um Ajudante Amável - Visão Alternativa
Inteligência Artificial: Um Inimigo Perigoso Ou Um Ajudante Amável - Visão Alternativa

Vídeo: Inteligência Artificial: Um Inimigo Perigoso Ou Um Ajudante Amável - Visão Alternativa

Vídeo: Inteligência Artificial: Um Inimigo Perigoso Ou Um Ajudante Amável - Visão Alternativa
Vídeo: INTELIGÊNCIA ARTIFICIAL DE NPCS - DREAMS PS4 Tutorial em português pt br 2024, Pode
Anonim

O uso da inteligência artificial (IA) na vida cotidiana está ganhando força rapidamente, mas essa tendência preocupa cada vez mais os especialistas. A equipe da New York University preparou uma nota de advertência sobre os riscos do uso do I. I. Na maioria das vezes, os autores enfocaram as questões éticas e sociais, bem como a falta de regulamentação. O relatório do grupo AI Now diz poucas novidades, mas na prática mundial, a questão da necessidade de limitar o trabalho do pensamento artificial é cada vez mais levantada.

Quase todos os visionários do progresso tecnológico falaram sobre as ameaças potenciais à IA. Stephen Hawking, em novembro do ano passado, expressou os principais temores que acompanham as reflexões sobre o desenvolvimento da tecnologia. Em sua opinião, os computadores mais cedo ou mais tarde aprenderão a se reproduzir. As criaturas biológicas provavelmente perderão para o silício inteligência tanto em habilidades mentais quanto em termos de adaptabilidade ao meio ambiente, especialmente em outro planeta. Mais cedo ou mais tarde, os robôs inteligentes vão considerar os humanos uma forma obsoleta e querem se livrar deles.

As palavras de Hawking ainda soam como uma história de terror, reproduzida dezenas de vezes em filmes e livros, mas mesmo aqueles que estão trabalhando na implementação de sistemas inteligentes estão cada vez mais temerosos do futuro com a IA, embora haja quem considere tais medos prematuros. “Temer o desenvolvimento da IA hoje é como se preocupar com a superpopulação de Marte”, disse Andrew Ng, chefe do Google Brain. No entanto, ele não tranquilizou a todos.

Image
Image

Entre as maiores fobias associadas à introdução de um computador em todas as esferas da vida, três são dignas de nota. Primeiro, a mente do computador será usada como uma arma de guerra, que ultrapassará significativamente até mesmo as armas nucleares em poder destrutivo. A segunda é que a IA escravizará os humanos. Terceiro, como qualquer criação humana, o computador está sujeito a erros. Todos os três pontos podem ser discutidos com mais detalhes.

Em 21 de agosto de 2017, os principais especialistas na área de pesquisa e implementação de inteligência artificial, incluindo chefes de empresas como SpaceX e Deep Mind, enviaram uma carta aberta à ONU. No texto, eles alertam a comunidade mundial contra o desenvolvimento de armas autônomas letais, sejam elas robôs ou outros mecanismos projetados para matar o inimigo. Os autores do documento chamam a atenção para as consequências fatais do uso dessas armas. Com sua eficácia fenomenal, é justo perguntar em que mãos ela cairá. Pode ser usado por um círculo estreito de elites e terroristas.

Os autores da carta apelaram à organização de controle e, com ela, à comunidade científica, para delinear o escopo do uso nocivo de IA. A responsabilidade que uma pessoa tem pela sua própria criação o obriga a realizar um trabalho sério para prevenir riscos. Além das leis, seus criadores também devem limitar o poder dos robôs, que terão que se perguntar como desligar as máquinas em casos extremos.

Image
Image

Vídeo promocional:

O abuso político de sistemas eletrônicos já foi demonstrado através do trabalho de redes sociais e algoritmos de análise de dados. Na primavera deste ano, um escândalo com Cambridge Analytica trovejou no mundo. Seus especialistas realizaram uma análise aprofundada dos dados do usuário e colocaram anúncios no Facebook, adaptados individualmente para cada pessoa.

Os colaboradores da empresa não apenas cruzaram o quadro ético, mas também aplicaram tecnologias modernas, cujo trabalho era impossível de analisar. A eficácia do aprendizado de máquina é um tema recorrente entre os principais matemáticos. Eles admitem em uníssono que estão surpresos com o extraordinário sucesso dos programas de computador, mas são completamente incapazes de compreender o trabalho de um sistema complexo. Em Mianmar, em abril deste ano, as postagens do Facebook também causaram inquietação entre as massas, mas ao contrário dos Estados Unidos, onde os protestos foram feitos, no estado asiático houve um massacre, que matou várias centenas de pessoas. A manipulação de um grande número de pessoas é uma realidade e os robôs aqui podem fazer uma piada cruel conosco.

Image
Image

Vale lembrar o mesmo Facebook, onde foram lançados os chatbots baseados em IA. Assistentes virtuais foram capacitados para dialogar com o interlocutor. Com o tempo, os bots se tornaram indistinguíveis de pessoas reais, e então os autores decidiram juntar os robôs. Com o tempo, os bots começaram a encurtar estruturas lexicais e a trocar palavras sem sentido. A mídia inflou uma sensação com as notícias, eles dizem que "as máquinas se revoltaram". Mas, deixando de lado o exagero dos jornalistas, é justo admitir que, no caso em que as máquinas comecem a se comunicar, a pessoa pode não perceber. E como eles viverão suas próprias vidas lá - ninguém sabe.

A estrutura cada vez mais complexa da mente do computador a cada dia nos afasta da compreensão dos princípios de seu trabalho. Mas, embora a maioria dos algoritmos faça seu trabalho, mesmo hoje em dia as máquinas complexas estão longe do ideal e cometem erros. Para um maior desenvolvimento da IA, é importante entender não tanto seus pontos fortes quanto suas vulnerabilidades. É nisso que se concentra um grande número de grupos científicos, num dos quais há um especialista do MIT Anish atali. Apenas alguns dias atrás, ele disse aos repórteres sobre os erros mais comuns em sistemas de reconhecimento de imagem.

Seus colegas demonstraram objetos para a máquina e descobriram que muitas vezes os objetos individuais eram percebidos incorretamente pela visão eletrônica. O computador poderia chamar uma bola de beisebol de uma xícara de café e uma tartaruga impressa em 3D de uma máquina do exército. O grupo já coletou cerca de 200 itens que são algoritmos enganosos.

Image
Image

A inteligência artificial, em vez de perceber um objeto como um todo, concentrou-se em seus parâmetros individuais. A IA tende a aprender com uma amostra “perfeita”. Quando confrontado com fenômenos não conformes, ele nem sempre pode abandonar o processo usual de processamento. Em vez de admitir sua incapacidade de processar a imagem, ele continua tentando ler a imagem e isso leva a resultados às vezes engraçados. Em vez do formato de uma tartaruga, o cérebro eletrônico tentou ler sua textura, semelhante à camuflagem. Quase pela mesma razão, os pilotos automáticos de e-car ainda não são 100% confiáveis. É difícil para um carro ver a silhueta e assumir que ela consiste em elementos separados.

E se nos próximos anos algumas deficiências puderem ser corrigidas, não há garantia de que os hackers não explorarão a vulnerabilidade. Os hackers de dispositivos eletrônicos hoje representam quase a principal causa do medo. Uma pequena equipe de programadores pode não apenas obter acesso a informações pessoais, mas também reconfigurar sistemas autônomos, assumindo o controle de ferramentas de poder colossal. E então estaremos todos em apuros. Mas a principal conclusão que pode ser tirada talvez seja a tradicional - você não deve ter medo de carros, mas de pessoas.

Alexander Lavrenov

Recomendado: