Falha Da Razão: Por Que As Pessoas Param De Acreditar Nos Fatos - Visão Alternativa

Falha Da Razão: Por Que As Pessoas Param De Acreditar Nos Fatos - Visão Alternativa
Falha Da Razão: Por Que As Pessoas Param De Acreditar Nos Fatos - Visão Alternativa

Vídeo: Falha Da Razão: Por Que As Pessoas Param De Acreditar Nos Fatos - Visão Alternativa

Vídeo: Falha Da Razão: Por Que As Pessoas Param De Acreditar Nos Fatos - Visão Alternativa
Vídeo: Sinais de que você pode estar sendo MANIPULADO 2024, Março
Anonim

A ciência explicou como e por que o cérebro humano se recusa a aceitar a verdade. Compreendido pela autora do The New Yorker, Elizabeth Colbert.

Em 1975, cientistas de Stanford convidaram um grupo de estudantes para participar de um estudo sobre suicídio. Os participantes viram algumas notas de suicídio. Em cada par, uma nota era fictícia e a outra escrita por um suicida real. Os alunos foram solicitados a distinguir entre notas genuínas e falsas.

Alguns alunos descobriram uma habilidade genial nessa tarefa. Dos vinte e cinco pares de notas, eles identificaram corretamente o verdadeiro vinte e quatro vezes. Outros mostraram total desesperança, identificando uma nota genuína em apenas dez ocasiões.

Como costuma acontecer na pesquisa psicológica, tudo foi encenado. Embora metade das notas fossem realmente genuínas, os resultados relatados aos participantes eram falsos. Os alunos que foram informados de que quase sempre estavam certos não deram realmente muito mais respostas corretas do que aqueles que constantemente apontavam erros.

Na segunda fase da investigação, o engano foi revelado. Os alunos foram informados de que o verdadeiro propósito do experimento era determinar sua reação ao fato de estarem certos ou errados. (Isso também era trapaça, como se descobriu.) Finalmente, os participantes foram solicitados a avaliar quantas notas de suicídio eles realmente classificaram corretamente e quantas respostas corretas eles achavam que o aluno médio poderia dar. Naquele momento algo curioso aconteceu. Os alunos do grupo de “bons resultados” se sentiam confiantes de que haviam se saído bem o suficiente, significativamente melhor do que o aluno médio - embora tivessem acabado de saber que não havia razão para acreditar nisso. Por outro lado, aqueles inicialmente atribuídos ao grupo de pontuação baixa sentiram que se saíram significativamente pior do que o aluno médio, uma conclusão que era igualmente infundada.

“As impressões, uma vez formadas, permanecem notavelmente estáveis”, observam os pesquisadores secamente.

Alguns anos depois, um novo grupo de alunos da Universidade de Stanford foi recrutado para um estudo semelhante. Os participantes receberam uma seleção de informações sobre dois bombeiros - a biografia de Frank K. e George H. Frank, entre outras coisas, relatou que ele tinha uma filha pequena e adorava mergulho. George tinha um filho pequeno e ele jogava golfe. Ele também continha as respostas dos homens ao Teste de Escolha Conservadora de Risco. Em uma versão dos dados, Frank era um bombeiro de sucesso que, a julgar pelos resultados do teste, quase sempre escolhia a opção mais segura. Em outra versão, Frank também preferia a opção mais segura, mas era considerado um bombeiro sem valor que recebeu reprimendas de seus superiores mais de uma vez.

Novamente, no meio do estudo, os alunos foram informados de que haviam sido enganados e que as informações que receberam eram completamente falsas. Eles então foram convidados a descrever suas próprias crenças. O que eles acham que um bombeiro de sucesso deve ter sobre o risco? Os alunos do primeiro grupo achavam que ele deveria evitar riscos. Os alunos do segundo grupo decidiram que, ao contrário, ele deve tomar decisões arriscadas.

Vídeo promocional:

Mesmo depois que as evidências “suas crenças foram completamente refutadas, as pessoas se recusam a reconsiderá-las”, observam os pesquisadores. Neste caso, a rejeição foi "particularmente impressionante", pois os dados brutos eram insuficientes para tirar uma conclusão geral.

Esses estudos já são bem conhecidos. A afirmação de um grupo de cientistas de que os humanos não conseguem pensar de maneira sã na década de 1970 foi chocante. Não mais. Milhares de experimentos subsequentes confirmaram (e refinaram) essa conclusão. Qualquer aluno pode demonstrar que pessoas aparentemente razoáveis geralmente se comportam de maneira completamente irracional. No entanto, uma questão séria permanece: como chegamos lá?

No novo livro, The Enigma of Reason, os cientistas cognitivos Hugo Mercier e Dan Sperber tentaram responder a essa pergunta. Eles observam que a mente é uma característica em evolução, como postura ereta ou visão tricolor. É originário das savanas da África e deve ser visto neste contexto.

De acordo com os cientistas, a maior vantagem dos humanos sobre as outras espécies é nossa capacidade de cooperar. É difícil de organizar e quase tão difícil de manter. Para qualquer pessoa, usar outra é sempre a melhor atividade. A razão não nos é dada para resolver problemas lógicos abstratos ou para nos ajudar a tirar conclusões de dados desconhecidos; em vez disso, é dado para resolver problemas que surgem durante a vida em equipe.

“A razão é uma adaptação a um nicho hipersocial que a humanidade desenvolve por si mesma”, escrevem Mercier e Sperber. Tendências razoáveis que parecem estranhas, bobas ou simplesmente estúpidas de um ponto de vista "intelectual" parecem muito equilibradas quando vistas de um ponto de vista social "interacionista".

Considere o viés de confirmação, a tendência de uma pessoa em aceitar informações que confirmam suas crenças e rejeitar informações que as contradizem. Das muitas formas de pensamento errôneo que foram descobertas, esta é a mais bem estudada, com uma tonelada de pesquisas dedicadas a ela. Um dos experimentos mais famosos foi realizado novamente em Stanford. Os pesquisadores reuniram um grupo de estudantes que tinham pontos de vista opostos sobre a pena de morte. Metade dos alunos era a favor e acreditava que ela evitava o crime; a outra metade foi contra, acreditando que não influenciava no índice de criminalidade.

Os alunos foram convidados a estudar dois estudos. Um apoiou o argumento de que a pena de morte dissuadiu outras pessoas do crime, enquanto o outro desafiou essa lógica. Os alunos que inicialmente apoiaram a pena de morte avaliaram os dados de restrição altamente, e o segundo estudo não foi convincente. Os alunos que inicialmente se opuseram à pena de morte fizeram o oposto. Ao final do experimento, os participantes foram questionados novamente sobre seus pontos de vista. Aqueles que começaram a favor da pena capital a apoiaram ainda mais, enquanto aqueles que se opuseram a ela foram ainda mais hostis.

Mercier e Sperber preferem o termo "viés de mistério". Eles acreditam que as pessoas não confiam em qualquer um. Quando confrontados com os argumentos de alguém, descobrimos com muita habilidade seus pontos fracos. E em relação aos nossos somos cegos.

Um experimento recente realizado por Mercier em conjunto com colegas europeus demonstra claramente essa assimetria. Os participantes tiveram que resolver vários problemas lógicos simples. Em seguida, eles foram solicitados a explicar suas respostas e ter a oportunidade de alterá-las caso percebessem erros. A maioria dos participantes ficou satisfeita com sua escolha inicial, apenas menos de 15% mudaram de ideia na segunda etapa.

Na terceira etapa, foi mostrado aos participantes um desses problemas, juntamente com a sua resposta e a resposta de outro participante que chegou a uma conclusão diferente. Mais uma vez, eles foram capazes de mudar suas respostas. Mas foi feito um truque: as respostas apresentadas como se outra pessoa as tivesse dado eram de fato suas, e vice-versa. Cerca de metade dos participantes entendeu o que estava acontecendo. Outros de repente se tornaram muito mais críticos. Quase 60% recusaram as respostas com as quais estavam satisfeitos.

Esse preconceito, de acordo com Mercier e Sperber, reflete a tarefa de evoluir a mente - para evitar problemas com outros membros do grupo. Vivendo em pequenos grupos de caçadores-coletores, nossos ancestrais preocupavam-se principalmente com sua situação social. Eles não queriam ser aqueles que arriscavam suas vidas caçando enquanto outros vagavam pela caverna. Havia pouca vantagem de bom senso, mas muito poderia ser alcançado com argumentos decisivos.

Entre outras coisas, nossos ancestrais não precisaram se preocupar com o efeito dissuasor da pena de morte e as qualidades ideais dos bombeiros. Eles também não tiveram que lidar com pesquisas fabricadas, notícias falsas ou Twitter. Não é de surpreender que hoje a razão muitas vezes nos falhe. Como escrevem Mercier e Sperber: "Este é um dos muitos casos em que o ambiente mudou muito rapidamente para a seleção natural."

O professor Stephen Sloman da Brown University e o professor Philip Fernbach da Universidade do Colorado também são cientistas cognitivos. Eles também acreditam que a sociabilidade é a chave para as funções, ou talvez mais apropriadamente, disfunções da mente humana. Eles começam seu livro, A Ilusão de Conhecimento: Por que Nunca Pensamos Sozinhos, examinando o banheiro.

Em um estudo da Universidade de Yale, os alunos foram solicitados a avaliar sua compreensão dos dispositivos do dia a dia, incluindo banheiros, zíperes e fechaduras de cilindro. Em seguida, eles foram solicitados a escrever uma explicação detalhada passo a passo de como esses dispositivos funcionam e a avaliar seu próprio entendimento novamente. Aparentemente, no processo, os alunos tomaram consciência da própria ignorância, pois sua autoestima caiu. (Os banheiros, ao que parece, são muito mais complicados do que parecem.)

Broken e Fernbach veem esse efeito, que eles chamam de "ilusão de aprendizado profundo", em quase todos os lugares. As pessoas pensam que sabem muito mais do que realmente sabem. Outras pessoas nos permitem acreditar nisso. No caso do banheiro, alguém o projetou para que eu possa administrá-lo facilmente. É nisso que as pessoas se destacam. Temos confiado no conhecimento um do outro desde que aprendemos a caçar juntos - este foi provavelmente um evento chave em nossa história evolutiva. Trabalhamos tão bem juntos, dizem Sloman e Fernbach, que dificilmente podemos dizer onde termina nosso próprio entendimento e começa o de outra pessoa.

"Uma das consequências da naturalidade com que compartilhamos o trabalho mental", escrevem eles, "é a ausência de uma fronteira nítida entre as idéias e o conhecimento de uma pessoa e de outros membros do grupo."

Essa falta de limites, ou confusão, se preferir, também é importante no que consideramos progresso. Pessoas, inventando novas ferramentas para um novo modo de vida, estavam criando simultaneamente novos reinos de ignorância. Se todos insistissem em, digamos, dominar os princípios da usinagem antes de fazer uma faca, a Idade do Bronze não seria uma revolução.

De acordo com Sloman e Fernbach, isso apresenta sérios problemas políticos. Uma coisa é usar o banheiro sem saber como funciona, outra é defender (ou se opor) à proibição da imigração sem saber do que você está falando. Sloman e Fernbach citam pesquisas de 2014, logo depois que a Rússia anexou a Crimeia. Os entrevistados foram questionados sobre como, em sua opinião, os Estados Unidos deveriam reagir, bem como se eles poderiam identificar a Ucrânia no mapa. Quanto pior os entrevistados sabiam sobre geografia, mais eles se pronunciavam a favor da intervenção militar. (Os participantes tinham uma ideia tão ruim de onde a Ucrânia estava localizada que a mediana das suposições se estendeu por 1.800 milhas - a distância aproximada de Kiev a Madrid.)

Sloman e Fernbach conduziram sua própria versão do “experimento do banheiro”, substituindo eletrodomésticos por políticas governamentais. Em um estudo de 2012, eles perguntaram às pessoas se precisavam de um sistema de pagador único para cuidados de saúde ou um sistema de pagamento de professores baseado no mérito. Os participantes foram solicitados a classificar suas posições de acordo com o grau de concordância ou discordância com as propostas. Em seguida, foram solicitados a explicar - com o máximo de detalhes possível - as implicações da implementação de cada decisão. Nesse ponto, a maioria das pessoas começou a ter problemas. Ao reavaliar suas opiniões, os participantes foram menos enfáticos em concordar ou discordar.

Broken e Fernbach veem o resultado como uma luz bruxuleante no fim do túnel. Se nós - ou nossos amigos - passarmos menos tempo pregando e tentarmos entender melhor as implicações das propostas políticas, veremos quão ignorantes somos e podemos moderar nossas opiniões. Isso, eles escrevem, "pode ser a única forma de pensamento que irá destruir a ilusão de um conhecimento profundo e mudar as atitudes das pessoas na vida".

Há uma visão que vê a ciência como um sistema que corrige as inclinações naturais das pessoas. Não há espaço para preconceitos pessoais em um laboratório bem administrado; os resultados devem ser reproduzíveis em outros laboratórios, por pesquisadores que não têm motivos para confirmá-los. E é por isso que este sistema provou ter tanto sucesso. A qualquer momento ela pode se atolar em intrigas, mas no final a metodologia prevalecerá. A ciência avança mesmo quando estamos presos no lugar.

Em Negação ao túmulo: por que ignoramos os fatos que nos salvarão, o psiquiatra Jack Gorman e sua filha, Sarah Gorman, uma profissional de saúde pública, exploram a lacuna entre o que a ciência diz e nossas crenças. Eles apelam para uma crença persistente, que não é apenas manifestamente falsa, mas potencialmente mortal, de que as vacinas são perigosas. O que é perigoso é não ser vacinado; é por isso que as vacinas foram criadas. "A imunização é um dos triunfos da medicina moderna", escrevem os Gormans. Mas não importa quantas pesquisas científicas afirmem que as vacinas são seguras e que não há ligação entre o autismo e as vacinas, os usuários de antivacinas permanecem inflexíveis. (Eles podem até chamar seu apoiador - de alguma forma - Donald Trump, que afirmou que embora seu filho Barron tenha sido vacinado, não estava dentro do prazo.recomendado por pediatras.)

Os Gormans também argumentam que as maneiras de pensar que agora parecem autodestrutivas podem, em algum momento, ser um método de adaptação. Eles também dedicam muitas páginas ao "viés de confirmação" que eles acreditam ter um componente fisiológico. Eles citam pesquisas que sugerem que as pessoas experimentam o verdadeiro prazer - uma onda de dopamina - ao processar informações que apóiam suas crenças. “É sempre bom dobrar nossa linha, mesmo se estivermos errados”, dizem eles.

Gormans não lista apenas as ilusões das pessoas; eles querem consertá-los. Deve haver alguma maneira, eles argumentam, de convencer as pessoas dos benefícios da vacinação para crianças e dos perigos das armas. (Outra crença comum, mas estatisticamente infundada, que eles estão tentando refutar é que a posse de armas mantém você seguro.) Mas aqui eles enfrentam os mesmos problemas. Fornecer informações precisas não parece ajudar. Apelar para a emoção pode funcionar melhor, mas vai contra o objetivo de promover a ciência pura. "O problema continua", eles escrevem no final do livro, "como lidar com as tendências que levam a concepções científicas erradas."

The Riddle of Mind, The Illusion of Knowledge e Denial to the Grave foram escritos antes das eleições de novembro. No entanto, eles anteciparam a era de Kellianne Conway e o surgimento dos "fatos alternativos". Os defensores da racionalidade podem encontrar uma solução. Mas a literatura ainda não é encorajadora.

Recomendado: