Do Perceptron Ao Primeiro Macintosh: A História Da Revolução - Visão Alternativa

Índice:

Do Perceptron Ao Primeiro Macintosh: A História Da Revolução - Visão Alternativa
Do Perceptron Ao Primeiro Macintosh: A História Da Revolução - Visão Alternativa

Vídeo: Do Perceptron Ao Primeiro Macintosh: A História Da Revolução - Visão Alternativa

Vídeo: Do Perceptron Ao Primeiro Macintosh: A História Da Revolução - Visão Alternativa
Vídeo: A história do Macintosh - TecMundo 2024, Pode
Anonim

Cinco temporadas de inteligência artificial. Ele bate em uma pessoa em pedacinhos em Go, assume o controle de seu carro e a substitui no trabalho e, ao mesmo tempo, pode melhorar a eficácia da medicina. Sua longa história remonta a 1958 com uma enorme máquina que conseguia distinguir entre direita e esquerda.

1: 0. Então 2: 0. E 3: 0. Em março de 2016, a reunião final foi realizada no Four Seasons Hotel em Seul, após a qual não havia sombra de dúvida: o campeão go coreano Lee Sedol perdeu 4: 1 para um computador executando o programa AlphaGo desenvolvido por uma subsidiária do Google "Deepmind". Pela primeira vez na história, o mecanismo de "aprendizado de máquina" e "redes neurais artificiais" ultrapassou completamente o cérebro humano neste jogo, que é considerado mais difícil de simular do que o xadrez. Muitos especialistas enfatizam que esperavam esse resultado apenas em alguns anos.

Para um público mais vasto, esta foi a prova do poder da nova tecnologia de "aprendizagem profunda", que está agora no coração dos assistentes de voz, carros autônomos, reconhecimento facial, tradução automática e também ajuda no diagnóstico médico …

O interesse pelas tecnologias de aprendizagem automática, que é demonstrado por corporações americanas e chinesas no campo das altas tecnologias (Google, Amazon, Facebook, Microsoft, Baidu, Tensent), abrange todo o planeta e está cada vez mais saltando de títulos científicos de jornais em materiais econômicos, analíticos e sociais. O fato é que a inteligência artificial não só promete grandes mudanças na economia, mas também suscita reflexões sobre novas armas destrutivas, vigilância geral dos cidadãos, substituição de funcionários por robôs, problemas éticos …

Mas de onde veio a revolução tecnológica da IA? Sua história tem altos e baixos suficientes. Ela confiou nas conquistas da neurociência e da ciência da computação (como você pode imaginar pelo nome), bem como, surpreendentemente, da física. Seu caminho passou pela França, EUA, Japão, Suíça e URSS. Nesta área, várias escolas científicas colidiram entre si. Eles ganharam um dia e perderam no outro. Foi preciso que todos mostrassem paciência, persistência e vontade de correr riscos. Existem dois invernos e três primaveras nesta história.

Máquina autoconsciente

Tudo começou muito bem. “O Exército Americano falou sobre a ideia de uma máquina que pode andar, falar, ver, escrever, reproduzir e se tornar consciente de si mesma”, escreveu o The New York Times em 8 de julho de 1958. Este artigo de uma coluna descreve o Perceptron, que foi criado pelo psicólogo americano Frank Rosenblatt nos laboratórios da Universidade Cornell. Na época, essa máquina de US $ 2 milhões tinha o tamanho de duas ou três geladeiras e era trançada com muitos fios. Durante uma demonstração em frente à imprensa americana, o Perceptron determinou se um quadrado desenhado em uma folha estava à direita ou à esquerda. O cientista prometeu que, com investimento de mais 100 mil dólares, sua máquina poderá ler e escrever em um ano. Na verdade, isso levou mais de 30 anos …

Vídeo promocional:

Seja como for, o principal neste projeto foi a fonte de inspiração, que se manteve inalterada até a AlphaGo e seus "parentes". O psicólogo Frank Rosenblatt está envolvido nos conceitos de cibernética e inteligência artificial há mais de uma década. A propósito, ele desenvolveu seu Perceptron com a ajuda de outros dois psicólogos norte-americanos: Warren McCulloch e Donald Hebb. O primeiro publicou em 1943 um artigo conjunto com Walter Pitts (Walter Pitts) com a proposta de criar neurônios "artificiais", que deveriam partir do natural e ter propriedades matemáticas. A segunda introduziu regras em 1949 para permitir que os neurônios artificiais aprendam por tentativa e erro, como o cérebro faz.

A ponte entre a biologia e a matemática foi uma iniciativa ousada. Uma unidade de contagem (neurônio) pode ser ativa (1) ou inativa (0) dependendo dos estímulos de outras formações artificiais com as quais está conectada, formando uma rede complexa e dinâmica. Mais precisamente, cada neurônio recebe um certo conjunto de símbolos e o compara com um certo limite. Se o limite for excedido, o valor é 1, caso contrário, é 0. Os autores mostraram que seu sistema associado pode realizar operações lógicas, como “e” e “ou” … e, portanto, realizar qualquer cálculo. Em teoria.

Essa abordagem inovadora de cálculos levou à primeira briga em nossa história. Os dois conceitos se juntaram em um confronto irreconciliável que continua até hoje. Por um lado, há defensores das redes neurais e, por outro, há defensores dos computadores "clássicos". Os últimos são baseados em três princípios: os cálculos são predominantemente sequenciais, a memória e os cálculos são fornecidos com componentes claramente definidos, qualquer valor intermediário deve ser igual a 0 ou 1. Para o primeiro, tudo é diferente: a rede fornece memória e cálculos, não há controle centralizado, e valores intermediários são permitidos.

O "Perceptron" também tem a capacidade de aprender, por exemplo, reconhecer um padrão ou classificar sinais. É assim que o atirador corrige a visão. Se a bala for para a direita, move o cano para a esquerda. No nível dos neurônios artificiais, isso significa enfraquecer aqueles que puxam para a direita, em favor daqueles que puxam para a esquerda, e permitir que você acerte o alvo. Tudo o que resta é criar esse emaranhado de neurônios e encontrar uma maneira de conectá-los.

Seja como for, o entusiasmo diminuiu significativamente em 1968 com o lançamento do livro Perceptrons, de Seymour Papert e Marvin Minsky. Nele, eles mostraram que a estrutura dos perceptrons permite resolver apenas os problemas mais simples. Foi o primeiro inverno da inteligência artificial, cuja primeira primavera, devemos admitir, não deu muitos frutos. E o vento soprava de lugar nenhum: Marvin Minsky esteve na origem do surgimento do próprio conceito de "inteligência artificial" em 1955.

AI e AI colidem

Em 31 de agosto daquele ano, ela e seu colega John McCarthy enviaram uma dúzia de pessoas convidando-os a participar no próximo verão de um trabalho de dois meses sobre o então primeiro conceito de inteligência artificial no Dartmouth College. Warren McCulloch e Claude Shannon, o pai da ciência da computação e da teoria das telecomunicações, estavam presentes. Foi ele quem trouxe Minsky e McCarthy para o laboratório da Bell, de onde posteriormente saíram transistores e lasers. Além disso, foram eles que se tornaram um dos centros do renascimento das redes neurais na década de 1980.

Paralelamente a isso, dois novos movimentos foram formados e a Universidade de Stanford tornou-se seu campo de batalha. Por um lado, havia a sigla para AI, "inteligência artificial", em um entendimento diferente de redes neurais, que era defendida por John McCarthy (ele deixou o Massachusetts Institute of Technology e criou seu laboratório em Stanford). Por outro lado, existe a IU, "inteligência aprimorada", refletindo a nova abordagem de Douglas Engelbart. Ele foi contratado em 1957 pelo Stanford Research Institute (criado em 1946 por uma instituição independente que interagia com o setor privado).

Douglas Engelbart teve um caminho difícil atrás dele. Ele foi técnico e se dedicou ao radar durante a Segunda Guerra Mundial, mas depois retomou os estudos e defendeu sua tese. Antes de ingressar na Stanford, ele até criou sua própria empresa, mas durou apenas dois anos. Em um novo lugar, ele começou a implementar sua visão de aprimorar as habilidades humanas. Ele disse que tinha uma ideia clara de como “os colegas se sentam em salas diferentes em estações de trabalho semelhantes que estão ligadas ao mesmo sistema de informação e podem interagir e trocar dados de perto”, diz o sociólogo Thierry Bardini.

Essa visão foi posta em prática em dezembro de 1968, dez anos após a introdução do Perceptron, durante uma demonstração do Sistema oNLine com um editor de texto na tela, hiperlinks para documentos, gráficos e um mouse. Douglas Engelbart foi um visionário, mas provavelmente olhou muito longe no futuro para realmente se tornar conhecido.

Janeiro de 1984, o primeiro Macintosh

John McCarthy, por sua vez, chamou esse sistema desnecessariamente de "ditatorial" porque impôs uma abordagem especial à estruturação do texto. Este bravo cientista, que, como Engelbart, foi financiado pelo exército americano, apresentou seu próprio conceito simbólico de inteligência artificial. Para isso, ele confiou na LISP, uma das primeiras linguagens de programação que desenvolveu. A ideia era imitar o processo de pensamento com uma cadeia lógica de regras e símbolos e, assim, formar um pensamento ou pelo menos uma função cognitiva. Isso não tem nada a ver com redes de neurônios independentes que podem aprender, mas são incapazes de explicar sua escolha. Além da mão-robô que despejou o ponche, que divertiu a todos ao derrubar os copos, a nova abordagem teve bastante sucesso em termos do que há muito se chama de "sistemas especialistas". Cadeias de regras permitiam que as máquinas analisassem dados em uma ampla variedade de campos, seja finanças, medicina, manufatura, tradução.

Em 1970, um colega de Minsky fez a seguinte declaração à revista Life: “Em oito anos teremos uma máquina com a inteligência de uma pessoa comum. Ou seja, uma máquina que pode ler Shakespeare, trocar o óleo de um carro, brincar, brigar.”

A vitória da abordagem simbólica

Aparentemente, a inteligência artificial não gosta de profecias. Em 1973, um relatório foi lançado na Inglaterra que gelou as cabeças: “A maioria dos cientistas que trabalham com inteligência artificial e campos relacionados admitem que estão decepcionados com o que foi alcançado nos últimos 25 anos. (…) Em nenhum dos campos as descobertas feitas até agora produziram os resultados prometidos."

Os anos seguintes confirmaram esse diagnóstico. Na década de 1980, as empresas de IA faliram ou mudaram de campo. O prédio do laboratório McCarthy foi demolido em 1986.

Douglas Engelbart venceu. Em janeiro de 1984, a Apple lançou seu primeiro Macintosh, colocando em prática a maioria das idéias do engenheiro.

Assim, a vitória não foi para a inteligência artificial, com que Minsky e McCarthy sonharam, mas para o intelecto aprimorado de Engelbart. Tudo isso levou ao desenvolvimento de computadores pessoais eficientes. E a inteligência artificial chegou a um beco sem saída. O simbolismo acabou sendo mais forte do que as redes neurais. No entanto, nossa história não termina aí, e eles ainda vão se declarar.

David Larousserie

Recomendado: