O Cérebro - Não é Um Computador - Visão Alternativa

O Cérebro - Não é Um Computador - Visão Alternativa
O Cérebro - Não é Um Computador - Visão Alternativa

Vídeo: O Cérebro - Não é Um Computador - Visão Alternativa

Vídeo: O Cérebro - Não é Um Computador - Visão Alternativa
Vídeo: O computador ou o cérebro, quem é o mais potente? | Nerdologia 2024, Outubro
Anonim

Não importa o quanto tentem, neurocientistas e psicólogos cognitivos nunca encontrarão no cérebro uma cópia da Quinta Sinfonia de Beethoven, ou uma cópia de palavras, imagens, regras gramaticais ou qualquer outro estímulo externo. O cérebro humano, é claro, não está literalmente vazio. Mas ele não contém a maioria das coisas que as pessoas acham que deveria - ele nem mesmo contém objetos simples como "memórias".

Nossos equívocos sobre o cérebro têm raízes históricas profundas, mas a invenção do computador na década de 1940 nos confundiu especialmente. Há mais de meio século, psicólogos, linguistas, neurofisiologistas e outros pesquisadores do comportamento humano afirmam que o cérebro humano funciona como um computador.

Para entender a superficialidade dessa ideia, vamos fingir que o cérebro é um bebê. Graças à evolução, os humanos recém-nascidos, como os recém-nascidos de qualquer outra espécie de mamífero, entram neste mundo prontos para uma interação efetiva com ele. A visão do bebê está embaçada, mas ele presta atenção especial aos rostos e pode reconhecer rapidamente o rosto da mãe entre outros. Ele prefere o som da voz a outros sons, ele pode distinguir um som de fala básico de outro. Somos, sem dúvida, construídos com a interação social em mente.

Um recém-nascido saudável tem mais de uma dúzia de reflexos - respostas prontas a certos estímulos; eles são necessários para a sobrevivência. O bebê vira a cabeça na direção daquele que faz cócegas em sua bochecha e suga o que quer que entre em sua boca. Ele prende a respiração quando está imerso na água. Ele agarra as coisas que caem em suas mãos com tanta força que quase se pendura nelas. Talvez o mais importante, os bebês emergem neste mundo com mecanismos de aprendizagem muito poderosos que os permitem mudar rapidamente para que possam interagir com o mundo com eficiência crescente, mesmo que este mundo não seja o mesmo que eles enfrentaram. seus ancestrais distantes.

Sentimentos, reflexos e mecanismos de aprendizagem são tudo com que começamos, e na verdade, existem algumas dessas coisas quando você pensa sobre isso. Se não tivéssemos uma dessas oportunidades desde o nascimento, seria muito mais difícil para nós sobreviver.

Mas também existe aquilo com que não nascemos: informação, dados, regras, software, conhecimento, léxico, representações, algoritmos, programas, modelos, memórias, imagens, processamento, sub-rotinas, codificadores e decodificadores, símbolos e buffers - elementos de design que permitem que os computadores digitais se comportem de maneiras um tanto lógicas. Não apenas não nascemos com ele - não o desenvolvemos em nós mesmos. Nunca.

Não armazenamos palavras ou regras que nos dizem como usá-los. Não criamos projeções visuais de estímulos, não os armazenamos no buffer da memória de curto prazo e, depois disso, não os transferimos para o armazenamento da memória de longo prazo. Não extraímos informações ou imagens e palavras de registros de memória. Computadores fazem isso, mas não organismos.

Os computadores processam literalmente informações - números, letras, palavras, fórmulas, imagens. As informações devem ser inicialmente codificadas em um formato que possa ser usado por computadores, o que significa que devem ser representadas como uns e zeros ("bits"), que são coletados em pequenos blocos ("bytes"). No meu computador, onde cada byte contém 8 bits, alguns deles representam a letra "K", outros a letra O e outros a letra T. Assim, todos esses bytes formam a palavra "CAT". Uma única imagem - digamos, uma foto do meu gato Henry na área de trabalho - é representada por um desenho especial de um milhão desses bytes ("um megabyte"), definido por caracteres especiais que informam ao computador que é uma fotografia, não uma palavra.

Vídeo promocional:

Os computadores literalmente movem esses desenhos de um lugar para outro nos vários compartimentos de armazenamento físico alocados nos componentes eletrônicos. Às vezes, eles copiam os desenhos e às vezes os alteram de várias maneiras - por exemplo, quando corrigimos um erro em um documento ou retocamos uma fotografia. As regras que um computador segue para mover, copiar ou manipular essas camadas de dados também são armazenadas dentro do computador. Os conjuntos de regras montados são chamados de "programas" ou "algoritmos". Um grupo de algoritmos que trabalham juntos para nos ajudar a fazer algo (como comprar ações ou pesquisar dados online) é chamado de "aplicativo".

Peço perdão por esta introdução ao mundo dos computadores, mas preciso deixar bem claro para você: os computadores estão, na verdade, trabalhando no lado simbólico do nosso mundo. Eles realmente armazenam e recuperam. Eles estão realmente processando. Eles têm memórias físicas. Eles são realmente orientados por algoritmos em tudo o que fazem, sem exceções.

Por outro lado, as pessoas não fazem isso - nunca fizeram e nunca farão. Com isso em mente, gostaria de perguntar: por que tantos cientistas falam sobre nossa saúde mental como se fôssemos computadores?

Em seu livro In Our Own Image (2015), o especialista em inteligência artificial George Zarkadakis descreve seis metáforas diferentes que os humanos usaram nos últimos dois milênios para descrever a inteligência humana.

No início, bíblico, as pessoas foram criadas de barro e lama, que então um Deus inteligente dotou de sua alma, "explicando" nosso intelecto - pelo menos gramaticalmente.

A invenção da engenharia hidráulica no século 3 AC levou à popularização dos modelos hidráulicos da inteligência humana, a ideia de que vários fluidos em nosso corpo - os chamados. "Fluidos corporais" - têm a ver com o funcionamento físico e mental. A metáfora foi preservada por mais de 16 séculos e sempre foi usada na prática médica.

Por volta do século 16, mecanismos automáticos foram desenvolvidos, acionados por molas e engrenagens; eles finalmente inspiraram os principais pensadores da época, como René Descartes, a formular a hipótese de que os humanos são máquinas complexas. No século 17, o filósofo britânico Thomas Hobbes propôs que o pensamento surgiu de vibrações mecânicas no cérebro. No início do século 18, as descobertas em eletricidade e química levaram a novas teorias da inteligência humana - e, novamente, eram metafóricas. Em meados daquele século, o físico alemão Hermann von Helmholtz, inspirado pelos avanços das comunicações, comparou o cérebro ao telégrafo.

Cada metáfora refletia as idéias mais avançadas da época que a originou. Como você pode esperar, quase no alvorecer da tecnologia dos computadores, na década de 40 do século passado, o cérebro foi comparado a um computador no princípio de operação, com o papel de armazenamento sendo dado ao próprio cérebro, e o papel do software - aos nossos pensamentos. Um evento marcante que deu início ao que hoje é chamado de "ciência cognitiva" foi a publicação do livro do psicólogo George Miller "Language and Communication" (1951). Miller sugeriu que o mundo mental pode ser estudado usando conceitos de informação, teorias computacionais e lingüísticas.

Essa forma de pensar foi finalmente expressa no pequeno livro Computer and the Brain (1958), no qual o matemático John von Neumann afirmou categoricamente que a função do sistema nervoso humano é "principalmente digital". Embora ele admitisse que muito pouco se sabia na época sobre o papel que o cérebro desempenha no pensamento e na memória, ele traçou paralelos entre os componentes dos computadores da época e os do cérebro humano.

Impulsionada por avanços subsequentes na tecnologia da computação e na pesquisa do cérebro, bem como por um ambicioso impulso interdisciplinar para compreender a natureza da inteligência humana em evolução progressiva, a ideia de que os humanos, como os computadores, são processadores de informação, tornou-se firmemente arraigada nas mentes das pessoas. Hoje, essa área inclui milhares de estudos, consome bilhões de dólares em financiamento e gerou um vasto corpo de literatura, consistindo de artigos técnicos e outros e livros. O livro de Ray Kurzweil, How to Create a Mind (2013), ilustra esse ponto especulando sobre os "algoritmos" do cérebro, como o cérebro "processa dados" e até mesmo sua semelhança superficial com circuitos integrados e suas estruturas.

A metáfora do cérebro humano, construída sobre o processamento de informação (doravante metáfora IP, de Processamento de Informação - aprox. Newo what), hoje em dia domina a mente das pessoas, tanto entre pessoas comuns como entre cientistas. Na verdade, não existe um discurso sobre o comportamento humano razoável que ocorreria sem o uso dessa metáfora, bem como o fato de que tais discursos não poderiam surgir em certas épocas e dentro de uma determinada cultura sem referências a espíritos e divindades. A validade da metáfora do processamento de informações no mundo moderno geralmente é validada sem nenhum problema.

No entanto, a metáfora IP é apenas uma entre muitas, é apenas uma história que contamos para dar sentido a algo que não entendemos por nós mesmos. E, como todas as metáforas anteriores, esta certamente será descartada em algum ponto - substituída por outra metáfora ou conhecimento verdadeiro.

Há pouco mais de um ano, ao visitar um dos mais prestigiosos institutos de pesquisa do mundo, desafiei os cientistas a explicar o comportamento humano inteligente sem referência a qualquer aspecto da metáfora IP do processamento de informações. Eles não podiam fazer isso e, quando educadamente toquei no assunto em uma correspondência por e-mail subsequente, meses depois eles ainda não podiam oferecer nada. Eles entenderam qual era o problema, não rejeitaram a tarefa. Mas eles não podiam oferecer uma alternativa. Em outras palavras, a metáfora IP ficou presa a nós. Isso sobrecarrega nosso pensamento com palavras e idéias tão sérias que temos dificuldade em tentar entendê-las.

A falsa lógica da metáfora IP é simples o suficiente para ser declarada. É baseado em um argumento falso com duas suposições razoáveis e uma conclusão falsa. Suposição inteligente nº 1: Todos os computadores são capazes de se comportar de maneira inteligente. Suposição sólida nº 2: Todos os computadores são processadores de informação. Conclusão falsa: todos os objetos capazes de atividade inteligente são processadores de informação.

Deixando de lado a terminologia formal, a ideia de que os humanos são processadores de informação só porque os computadores são tão boba, e quando um dia a metáfora IP eventualmente se tornar obsoleta, quando finalmente abandonada, quase certamente será vista pelos historiadores dessa forma., conforme agora examinamos as afirmações sobre a natureza hidráulica ou mecânica do homem.

Se essa metáfora é tão boba, por que ainda governa nossas mentes? O que está nos impedindo de jogá-lo de lado como desnecessário, da mesma forma que descartamos um galho que bloqueia nosso caminho? Existe uma maneira de entender a inteligência humana sem depender de muletas fictícias? E qual é o custo de usar esse suporte por tanto tempo? Afinal, essa metáfora inspirou escritores e pensadores a fazer uma enorme quantidade de pesquisas em uma ampla variedade de campos da ciência ao longo das décadas. A que custo?

Em uma aula que ensinei inúmeras vezes ao longo dos anos, começo selecionando um voluntário para desenhar uma nota de um dólar no quadro-negro. “Mais detalhes,” eu digo. Quando ele termina, cubro o desenho com um pedaço de papel, tiro uma nota da carteira, colo no quadro e peço ao aluno que repita a tarefa. Quando ele termina, retiro a folha de papel do primeiro desenho e depois a turma comenta as diferenças.

Talvez você nunca tenha visto uma demonstração como essa, ou talvez tenha problemas para apresentar o resultado, então pedi a Ginny Hyun, uma das estagiárias do instituto onde faço minhas pesquisas, para fazer dois desenhos. Aqui está um desenho da memória (observe a metáfora).

E aqui está o desenho que ela fez com a nota.

Ginny ficou tão surpresa com o resultado do caso quanto você, mas isso não é incomum. Como você pode ver, o sorteio sem o suporte da nota é péssimo se comparado ao tirado da amostra, apesar de Ginny ter visto a nota de dólar milhares de vezes.

Então, como vai? Não temos uma “ideia” de como é uma nota de um dólar, “carregada” no “registro de memória” do cérebro? Não podemos simplesmente "extraí-lo" de lá e usá-lo para criar nosso desenho?

Claro que não, e mesmo milhares de anos de pesquisa em neurociência não ajudarão a descobrir a ideia da forma de uma nota de dólar armazenada no cérebro humano simplesmente porque ela não está lá.

Um conjunto significativo de pesquisas sobre o cérebro mostra que, na realidade, numerosas e às vezes vastas áreas do cérebro estão frequentemente envolvidas em tarefas de memória aparentemente triviais. Quando uma pessoa experimenta emoções fortes, milhões de neurônios podem ser ativados no cérebro. Em 2016, o neurofisiologista Brian Levine e colegas da Universidade de Toronto conduziram um estudo envolvendo sobreviventes de acidente de avião, que concluiu que os eventos do acidente contribuíram para o aumento da atividade neural na amígdala, lobo temporal medial, linha média anterior e posterior e também no córtex visual dos passageiros”.

A ideia apresentada por vários cientistas de que memórias específicas são de alguma forma armazenadas em neurônios individuais é absurda; Por falar nisso, essa suposição apenas levanta a questão da memória a um nível ainda mais complexo: como e onde, em última análise, a memória é gravada na célula?

Então, o que acontece quando Ginny tira uma nota de um dólar sem usar uma amostra? Se Ginny nunca viu uma nota antes, seu primeiro desenho provavelmente não se parecerá com o segundo. O fato de ter visto notas de dólar antes de alguma forma a mudou. Na verdade, seu cérebro foi alterado para que ela pudesse visualizar uma nota - o que é essencialmente equivalente - pelo menos em parte - a reviver a sensação do contato visual com a nota.

A distinção entre os dois esboços nos lembra que visualizar algo (que é o processo de recriar o contato visual com o que não está mais na frente de nossos olhos) é muito menos preciso do que se estivéssemos realmente vendo algo. É por isso que somos muito melhores em aprender do que em lembrar. Quando reproduzimos algo na memória (do latim re - "de novo", e produzimos - "criar"), devemos tentar novamente experimentar a colisão com o objeto ou fenômeno; porém, quando aprendemos algo, só temos que estar cientes do fato de que anteriormente já tivemos a experiência de percepção subjetiva desse objeto ou fenômeno.

Talvez você tenha algo contra esta evidência. Ginny já vira notas de dólar antes, mas não fez nenhum esforço consciente para “memorizar” os detalhes. Você pode argumentar que, se ela o fizesse, ela poderia desenhar uma segunda imagem sem usar a amostra da nota de um dólar. Mesmo assim, nenhuma imagem da nota foi de forma alguma "armazenada" no cérebro de Ginny. Ela apenas ficou mais preparada para pintá-la em detalhes, assim como, com a prática, o pianista se tornou mais hábil em executar concertos para piano sem ter que carregar uma cópia da partitura.

A partir desse experimento simples, podemos começar a construir a base de uma teoria do comportamento intelectual humano sem metáforas - uma daquelas teorias de que o cérebro não está completamente vazio, mas pelo menos livre do fardo das metáforas IP.

À medida que avançamos pela vida, somos expostos a muitos eventos que acontecem conosco. Três tipos de experiência devem ser especialmente observados: 1) observamos o que está acontecendo ao nosso redor (como as outras pessoas se comportam, os sons da música, as instruções que nos são dirigidas, as palavras nas páginas, as imagens nas telas); 2) somos suscetíveis a uma combinação de incentivos menores (por exemplo, sirenes) e incentivos importantes (o surgimento de carros de polícia); 3) somos punidos ou recompensados por nos comportarmos de determinada maneira.

Tornamo-nos mais eficazes se mudarmos de acordo com esta experiência - se agora podemos contar um poema ou cantar uma canção, se formos capazes de seguir as instruções que nos foram dadas, se respondermos aos estímulos menores, bem como aos importantes, se tentarmos não nos comportar dessa forma, ser punido, e mais freqüentemente nos comportamos de forma a receber uma recompensa.

Apesar das manchetes enganosas, ninguém tem a menor idéia de quais mudanças ocorrem no cérebro depois que aprendemos a cantar uma música ou a aprender um poema. No entanto, nem canções nem poemas foram “carregados” em nossos cérebros. Apenas mudou de forma ordenada, de modo que agora podemos cantar uma música ou recitar um poema se certas condições forem atendidas. Quando somos solicitados a atuar, nem a música nem o poema são "extraídos" de algum lugar do cérebro, assim como os movimentos dos meus dedos não são "extraídos" quando bato na mesa. Nós apenas cantamos ou falamos, e não precisamos de nenhuma extração.

Há alguns anos, perguntei a Eric Kandel, neurologista da Universidade de Columbia que ganhou o Prêmio Nobel por identificar algumas das mudanças químicas que ocorrem nas sinapses de nêutrons de saída da Aplysia (caracol do mar) depois de aprender - quanto tempo. em sua opinião, passará antes que entendamos o mecanismo de funcionamento da memória humana. Ele respondeu rapidamente: "Cem anos." Não pensei em perguntar a ele se ele acreditava que a metáfora IP retarda o progresso da neurociência, mas alguns neurocientistas estão realmente começando a pensar sobre o impensável, a saber, que essa metáfora não é tão necessária.

Vários cientistas cognitivos - notadamente Anthony Chemero, da Universidade de Cincinnati, autor do livro de 2009, Radical Embodied Cognitive Science - agora rejeitam completamente a ideia de que o cérebro humano funciona como um computador. A crença popular é que nós, como computadores, conceitualizamos o mundo realizando cálculos em suas imagens mentais, mas Chemero e outros cientistas descrevem outra maneira de entender o processo de pensamento - eles o definem como uma interação direta entre os organismos e seu mundo.

Meu exemplo favorito, ilustrando a enorme diferença entre a abordagem IP e o que alguns chamam de visão "anti-representacional" do corpo humano, inclui duas explicações diferentes de como um jogador de beisebol pode pegar uma bola que voa, fornecidas por Michael McBeath, agora em Arizona State University, e colegas, em um artigo publicado em 1995 na Science. De acordo com a abordagem IP, o jogador deve formular uma estimativa grosseira das várias condições iniciais de voo da bola - força de impacto, ângulo de trajetória e assim por diante - e então criar e analisar um modelo interno da trajetória que a bola provavelmente seguirá, após o qual deve usar este modelo a fim de orientar e corrigir continuamente os movimentos que visam a interceptação da bola no tempo.

Tudo ficaria bem e maravilhoso se funcionássemos da mesma forma que os computadores, mas McBeath e seus colegas deram uma explicação mais simples: para pegar a bola, o jogador só precisa se mover de forma a manter constantemente a conexão visual com a base principal e o ambiente. espaço (tecnicamente, use um "caminho ótico linear"). Pode parecer complicado, mas na realidade é extremamente simples e não implica quaisquer cálculos, representações ou algoritmos.

Dois aspirantes a professores de psicologia da UK City University de Leeds - Andrew Wilson e Sabrina Golonka - classificam o exemplo do beisebol entre vários outros que podem ser percebidos fora da abordagem IP. Ao longo dos anos, eles escreveram em seus blogs sobre o que eles próprios chamam de "uma abordagem mais coerente e naturalizada do estudo científico do comportamento humano … indo contra a abordagem neurológica cognitiva dominante". No entanto, essa abordagem está longe de ser a base de um movimento separado; a maioria dos cognitivistas ainda abandona a crítica e se apega à metáfora do IP, e alguns dos pensadores mais influentes do mundo fizeram grandes previsões sobre o futuro da humanidade que dependem da realidade da metáfora.

Uma previsão - feita pelo futurista Kurzweil, pelo físico Stephen Hawking e pelo neurocientista Randall Cohen, entre outros - é que, uma vez que a consciência humana deve atuar como programas de computador, em breve será possível carregar a mente humana em uma máquina, pela qual teremos intelecto infinitamente poderoso e, muito possivelmente, adquiriremos a imortalidade. Essa teoria serviu de base para o filme distópico Supremacia, estrelado por Johnny Depp, que interpreta um cientista parecido com Kurzweil cuja mente foi carregada na Internet - com consequências terríveis para a humanidade.

Felizmente, como a metáfora do IP não é de forma alguma correta, nunca precisamos nos preocupar com a loucura da mente humana no ciberespaço e nunca podemos alcançar a imortalidade enviando-a em qualquer lugar. A razão para isso não é apenas a falta de software consciente no cérebro; o problema é mais profundo - vamos chamá-lo de problema da singularidade - o que soa tanto inspirador quanto deprimente.

Uma vez que nem bancos de memória, nem representações de estímulos existem no cérebro, e uma vez que tudo que é exigido de nós para funcionarmos no mundo são mudanças cerebrais como resultado de nossa experiência, não há razão para acreditar que uma e a mesma a experiência muda cada um de nós da mesma maneira. Se você e eu assistirmos ao mesmo concerto, as mudanças que ocorrem em meu cérebro ao som da Sinfonia nº 5 de Beethoven quase certamente serão diferentes daquelas que ocorrem em seu cérebro. Essas mudanças, sejam quais forem, são construídas com base em uma estrutura neural única que já existe, e cada uma delas evoluiu ao longo de sua vida repleta de experiências únicas.

Como Sir Frederick Bartlett mostrou em seu livro Remembering (1932), é por isso que duas pessoas nunca repetirão a história que ouviram da mesma maneira e, com o tempo, suas histórias se tornarão cada vez mais diferentes uma da outra. Nenhuma "cópia" da história é criada; em vez disso, cada indivíduo, ao ouvir uma história, muda até certo ponto - o suficiente para ser questionado sobre a história mais tarde (em alguns casos, dias, meses ou mesmo anos depois que Bartlett leu a história pela primeira vez para eles) - poderão reviver em certa medida os momentos em que ouviram a história, embora não com muita precisão (ver a primeira imagem da nota de um dólar acima).

Acho que isso é inspirador porque significa que cada um de nós é verdadeiramente único - não apenas em nosso código genético, mas até mesmo em como nossos cérebros mudam com o tempo. É também deprimente, pois torna a difícil tarefa da neurociência quase além da imaginação. Para cada uma das experiências diárias, a mudança ordenada pode envolver milhares, milhões de neurônios ou até mesmo o cérebro inteiro, uma vez que o processo de mudança é diferente para cada cérebro individual.

Para piorar as coisas, mesmo se tivéssemos a capacidade de tirar um instantâneo de todos os 86 bilhões de neurônios no cérebro e, em seguida, simular o estado desses neurônios usando um computador, este extenso modelo não funcionaria para nada fora do cérebro no qual foi originalmente criado. Este é talvez o efeito mais monstruoso que a metáfora IP teve em nossa compreensão do funcionamento do corpo humano. Embora os computadores armazenem cópias exatas de informações - cópias que podem permanecer inalteradas por muito tempo, mesmo se o próprio computador fosse desenergizado - nosso cérebro só suporta inteligência enquanto estamos vivos. Não temos botões liga / desliga. Ou o cérebro continua sua atividade ou desaparecemos. Além disso, como observou o neurocientista Stephen Rose em seu livro de 2005, The Future of the Brain,Um instantâneo do estado atual do cérebro também pode não ter sentido se não conhecermos a história de vida completa do dono desse cérebro - talvez até mesmo os detalhes do ambiente social em que ele cresceu.

Considere o quão complexo é o problema. Para entender pelo menos o básico de como o cérebro suporta a inteligência humana, podemos precisar descobrir não apenas o estado atual de todos os 86 bilhões de neurônios e 100 trilhões de suas interseções, não apenas a força diferente com a qual estão conectados, mas também como a atividade cerebral no momento suporta integridade do sistema. Acrescente a isso a singularidade de cada cérebro, criada em parte pela singularidade do caminho de vida de cada pessoa, e a previsão de Kandel começa a parecer excessivamente otimista. (Em uma coluna editorial recente do The New York Times, o neurocientista Kenneth Miller sugeriu que seriam necessários "séculos" para descobrir as conexões neurais básicas.)

Nesse ínterim, enormes somas de dinheiro estão sendo gastas em pesquisas sobre o cérebro, com base em ideias frequentemente equivocadas e promessas não cumpridas. O caso mais flagrante de pesquisa neurológica que deu errado foi documentado em um relatório da Scientific American lançado recentemente. Tratava-se do montante de 1,3 bilhão de dólares destinado ao projeto “Cérebro Humano” lançado pela União Europeia em 2013. Convencidas pelo carismático Henry Markram de que seria capaz de simular o cérebro humano em um supercomputador até 2023 e que tal modelo seria um avanço no tratamento do Alzheimer e de outras doenças, as autoridades da UE financiaram o projeto sem literalmente impor qualquer restrição. Menos de dois anos depois, o projeto se transformou em um quebra-cabeças e Markram foi convidado a renunciar.

Somos organismos vivos, não computadores. Lide com isso. Vamos continuar tentando nos compreender, mas ao mesmo tempo nos livrando da carga intelectual desnecessária. A metáfora do IP existe há meio século, trazendo poucas descobertas. É hora de pressionar o botão DELETE.

Robert Epstein

A tradução foi realizada pelo projeto NewWhat.

Recomendado: