A Inteligência Artificial Está Longe De Ser Tão Inteligente Quanto Você E Elon Musk Pensam Que é - Visão Alternativa

Índice:

A Inteligência Artificial Está Longe De Ser Tão Inteligente Quanto Você E Elon Musk Pensam Que é - Visão Alternativa
A Inteligência Artificial Está Longe De Ser Tão Inteligente Quanto Você E Elon Musk Pensam Que é - Visão Alternativa

Vídeo: A Inteligência Artificial Está Longe De Ser Tão Inteligente Quanto Você E Elon Musk Pensam Que é - Visão Alternativa

Vídeo: A Inteligência Artificial Está Longe De Ser Tão Inteligente Quanto Você E Elon Musk Pensam Que é - Visão Alternativa
Vídeo: Elon Musk alerta o mundo sobre a INTELIGÊNCIA ARTIFICIAL 2024, Pode
Anonim

Em março de 2016, o algoritmo de computador AlphaGo da DeepMind foi capaz de derrotar Lee Sedol, então o melhor jogador de quebra-cabeças do mundo. Este evento se tornou um daqueles momentos decisivos na história da indústria de tecnologia, que já foi a vitória do computador IBM Deep Blue sobre o campeão mundial de xadrez Garry Kasparov e a vitória do supercomputador Watson da mesma IBM no teste Jeopardy para polímatas em 2011.

No entanto, apesar dessas vitórias, por mais impressionantes que sejam, é mais sobre algoritmos de treinamento e o uso de poder de computação bruto do que sobre inteligência artificial real. O ex-professor de robótica do MIT Rodney Brooks, que cofundou a iRobot e posteriormente a Rethink Robotics, diz que aprender um algoritmo para jogar um quebra-cabeça estratégico complexo não é inteligência. Pelo menos não da maneira que imaginamos para uma pessoa.

O especialista explica que não importa o quão forte AlphaGo possa provar ser para completar a tarefa que lhe foi atribuída, na verdade ele não é capaz de mais nada. Além do mais, ele está configurado para jogar Go apenas em um campo padrão de 19 x 19. Em uma entrevista ao TechCrunch, Brooks falou sobre como recentemente teve a oportunidade de conversar com a equipe DeepMind e descobrir um detalhe interessante. Quando questionada sobre o que teria acontecido se os organizadores tivessem mudado o tamanho do tabuleiro e aumentado para 29 x 29 quadrados, a equipe AlphaGo admitiu a ele que mesmo uma pequena mudança no campo de jogo teria resultado em "terminamos".

“Acho que as pessoas veem como um algoritmo faz bem uma coisa e parecem pensar imediatamente que ele pode fazer outras coisas com a mesma eficácia. Mas a questão é que ele não pode”, comentou Brooks.

Inteligência bruta

Em maio deste ano, em entrevista a Davin Coldway no TechCrunch Disrupt, Kasparov observou que desenvolver um computador capaz de jogar xadrez em nível mundial é uma coisa, mas chamar tal computador de inteligência artificial pura é outra, já que não é. É apenas uma máquina que coloca todo o seu poder de computação para resolver um problema que está acostumada a fazer melhor.

“No xadrez, as máquinas vencem por causa do poder da computação profunda. Eles podem se tornar completamente invencíveis com um enorme banco de dados, hardware muito rápido e algoritmos mais lógicos. No entanto, eles carecem de compreensão. Eles não reconhecem padrões estratégicos. As máquinas não têm propósito”, disse Kasparov.

Vídeo promocional:

Gil Pratt, CEO do Toyota Institute, divisão da Toyota de IA e IA em robôs domésticos e carros autônomos, também falou ao TechCrunch na Sessão de Robótica. Em sua opinião, o medo que ouvimos de uma ampla gama de pessoas, incluindo Elon Musk, que recentemente chamou a inteligência artificial de "uma ameaça existencial para a humanidade", pode ser devido a nada mais do que aquelas descrições distópicas do mundo que a ficção científica nos oferece.

“Nossos atuais sistemas de aprendizado profundo são tão bons em executar as tarefas atribuídas como os projetamos para serem. Mas, na realidade, eles são altamente especializados e minúsculos em escala. Portanto, considero importante sempre, no contexto deste tópico, mencionar o quão bons eles são e o quão ineficazes eles realmente são. E também o quão longe estamos do momento em que esses sistemas podem começar a representar a ameaça de que Elon Musk e outros estão falando”, comentou Pratt.

Brooks, por sua vez, na TechCrunch Robotics Session observou que há uma tendência entre as pessoas em geral de acreditar que, se um algoritmo é capaz de lidar com a tarefa "X", então é aparentemente tão inteligente quanto uma pessoa.

“Acho que a razão pela qual as pessoas, incluindo Elon Musk, cometem esse erro é esta. Quando vemos uma pessoa fazendo um trabalho muito bom na tarefa que lhe foi atribuída, entendemos que ela tem grande competência neste assunto. Parece-me que as pessoas estão tentando aplicar o mesmo modelo ao aprendizado de máquina. E é aí que reside o maior erro”, diz Brooks.

O CEO do Facebook, Mark Zuckerberg, fez uma transmissão ao vivo no domingo passado, durante a qual também criticou os comentários de Elon Musk, chamando-os de "bastante irresponsáveis". De acordo com Zuckerberg, a IA será capaz de melhorar significativamente nossas vidas. Musk, por sua vez, decidiu não ficar em silêncio e respondeu a Zuckerberg que tinha "compreensão limitada" sobre IA. O tópico ainda não foi encerrado e Musk prometeu um pouco mais tarde responder com mais detalhes aos ataques de colegas do setor de TI.

A propósito, Musk não é o único que acredita que a IA pode representar uma ameaça potencial. O físico Stephen Hawking e o filósofo Nick Bostrom também expressam suas preocupações sobre o potencial da inteligência artificial para penetrar no modo de vida da humanidade. Mas, provavelmente, eles estão falando sobre inteligência artificial mais generalizada. Sobre o que está sendo estudado em laboratórios como Facebook AI Research, DeepMind e Maluuba, ao invés da IA mais especializada, cujos primeiros primórdios podemos ver hoje.

Brooks também observa que muitos dos críticos da IA nem mesmo trabalham nesta área, e sugeriu que essas pessoas simplesmente não entendem como pode ser difícil encontrar uma solução para cada problema individual nessa área.

“Na verdade, não há muitas pessoas que consideram a IA uma ameaça existencial. Stephen Hawking, astrofísico e astrônomo britânico Martin Rees … e alguns outros. A ironia é que a maioria deles tem uma coisa em comum - eles nem mesmo trabalham no campo da inteligência artificial”, disse Brooks.

"Para aqueles de nós que trabalham com IA, é bastante óbvio como pode ser difícil fazer algo funcionar no nível do produto acabado."

Deturpação de IA

Parte do problema também vem do fato de que chamamos tudo isso de "inteligência artificial". A verdade é que essa "inteligência" não é nada parecida com a inteligência humana, que geralmente é descrita em livros de referência e vocabulários como "a capacidade de aprender, compreender e se adaptar a novas situações".

Pascal Kaufman, CEO da Starmind, uma startup que ajuda outras empresas a usar inteligência humana coletiva para encontrar soluções para problemas de negócios, estudou neurociência nos últimos 15 anos. O cérebro humano e o computador, observa Kaufman, funcionam de maneira muito diferente, e seria um erro óbvio compará-los.

“A analogia - o cérebro funciona como um computador - é muito perigosa e impede o progresso da IA”, disse Kaufman.

O especialista também acredita que não avançaremos no entendimento da inteligência humana se a considerarmos em termos tecnológicos.

“É um equívoco pensar que os algoritmos funcionam como o cérebro humano. As pessoas adoram algoritmos e, por isso, acham que o cérebro pode ser descrito com a ajuda delas. Acho isso fundamentalmente errado”, acrescenta Kaufman.

Se algo der errado

Existem muitos exemplos em que os algoritmos de IA não são tão inteligentes quanto costumávamos pensar neles. E um dos mais famosos é o algoritmo de IA Tay, criado pela equipe de desenvolvimento de sistemas de IA da Microsoft e fora de controle no ano passado. Demorou menos de um dia para transformar o bot em um racista de verdade. Os especialistas dizem que isso pode acontecer com qualquer sistema de IA quando apresentado a modelos de comportamento ruins. No caso de Tay, ela caiu sob a influência de formas de vocabulário racistas e outras ofensivas. E como foi programado para "aprender" e "espelhar o comportamento", logo saiu do controle dos pesquisadores.

Uma ampla pesquisa de Cornell e Wyoming descobriu que é muito fácil enganar algoritmos treinados para identificar imagens digitais. Eles descobriram que uma imagem que parecia "um absurdo embaralhado" para as pessoas foi identificada pelo algoritmo como uma imagem de algum objeto cotidiano, como um "ônibus escolar".

De acordo com um artigo publicado na MIT Tech Review descrevendo este projeto, não está totalmente claro por que o algoritmo pode ser enganado da maneira que os pesquisadores o fizeram. O que foi descoberto é que as pessoas aprenderam a reconhecer o que está diante delas - uma imagem autossuficiente ou algum tipo de imagem incompreensível. Os algoritmos, por sua vez, que analisam pixels, são mais fáceis de manipular e enganar.

Quanto aos carros autônomos, tudo se torna muito mais complicado. Existem algumas coisas que uma pessoa entende ao se preparar para enfrentar certas situações. Será muito difícil ensinar uma máquina a fazer isso. Um grande artigo publicado em um dos blogs automotivos por Rodney Brooks em janeiro deste ano cita vários exemplos de tais situações, incluindo um descrevendo um carro autônomo se aproximando de um sinal de pare localizado próximo a uma faixa de pedestres na cidade. no início do qual um adulto e uma criança se levantam e se comunicam.

O algoritmo provavelmente será ajustado para esperar que os pedestres cruzem a estrada. Mas e se esses pedestres nem sequer pensaram em atravessar a rua, pois estão parados e esperando, digamos, por um ônibus escolar? Um motorista humano, neste caso, pode buzinar os pedestres, que em resposta podem acenar para ele, informando que ele pode passar. Um veículo não tripulado em tal situação pode simplesmente ficar preso firmemente, esperando indefinidamente que as pessoas cruzem a estrada, porque o algoritmo não compreende esses sinais humanos únicos, escreve Brooks.

Cada um desses exemplos nos mostra o quão longe ainda temos que avançar no desenvolvimento de algoritmos de inteligência artificial. Até que ponto os desenvolvedores de IA generalizados podem ter sucesso ainda é uma questão. Existem coisas com as quais uma pessoa pode lidar facilmente, mas será uma verdadeira tortura aprender o algoritmo. Por quê? Porque nós, humanos, não estamos limitados em nosso aprendizado a um conjunto de tarefas específicas.

Nikolay Khizhnyak

Recomendado: