As Pessoas Não Confiam Na Inteligência Artificial. Como Corrigi-lo? - Visão Alternativa

Índice:

As Pessoas Não Confiam Na Inteligência Artificial. Como Corrigi-lo? - Visão Alternativa
As Pessoas Não Confiam Na Inteligência Artificial. Como Corrigi-lo? - Visão Alternativa

Vídeo: As Pessoas Não Confiam Na Inteligência Artificial. Como Corrigi-lo? - Visão Alternativa

Vídeo: As Pessoas Não Confiam Na Inteligência Artificial. Como Corrigi-lo? - Visão Alternativa
Vídeo: Inteligência Artificial - UNIPÊ - Live - Aula - Arq. Ag. Inteligentes e Din Mapa Mental - 09/09/2020 2024, Pode
Anonim

A inteligência artificial já pode prever o futuro. A polícia o usa para traçar um mapa que mostra quando e onde o crime pode ocorrer. Os médicos o usam para prever quando um paciente pode ter um derrame ou ataque cardíaco. Os cientistas estão até tentando dar imaginação à IA para que ela possa antecipar eventos inesperados.

Muitas decisões em nossa vida exigem boas previsões, e os agentes de IA quase sempre são melhores nisso do que os humanos. Mesmo assim, apesar de todos esses avanços tecnológicos, ainda não temos confiança nas previsões que a inteligência artificial fornece. As pessoas não estão acostumadas a confiar em IA e preferem confiar em especialistas humanos, mesmo que esses especialistas estejam errados.

Image
Image

Se quisermos que a inteligência artificial beneficie os humanos, precisamos aprender a confiar nela. Para fazer isso, precisamos entender por que os humanos são tão persistentes em se recusar a confiar na IA.

Confie no Dr. Robot

A tentativa da IBM de apresentar um programa de supercomputador aos oncologistas (Watson for Oncology) falhou. AI se comprometeu a fornecer recomendações de tratamento de alta qualidade para 12 cânceres, respondendo por 80% dos casos mundiais. Até o momento, mais de 14.000 pacientes receberam recomendações com base em seus cálculos.

Mas quando os médicos encontraram Watson pela primeira vez, eles se viram em uma situação bastante difícil. Por outro lado, se Watson forneceu diretrizes de tratamento que correspondessem às suas próprias opiniões, a profissão médica não viu muito valor nas recomendações de IA. O supercomputador estava simplesmente dizendo a eles o que já sabiam, e essas recomendações não mudaram o tratamento real. Isso pode ter dado aos médicos paz de espírito e confiança em suas próprias decisões. Mas a IBM ainda precisa provar que o Watson realmente aumenta as taxas de sobrevivência ao câncer.

Vídeo promocional:

Image
Image

Por outro lado, se Watson fez recomendações contrárias à opinião de especialistas, os médicos concluíram que Watson era incompetente. E a máquina não conseguia explicar por que seu tratamento funcionaria, porque seus algoritmos de aprendizado de máquina eram complexos demais para serem entendidos por humanos. Conseqüentemente, isso gerou ainda mais desconfiança, e muitos médicos simplesmente ignoraram as recomendações da IA, confiando em sua própria experiência.

Como resultado, o parceiro médico-chefe da IBM Watson, MD Anderson Cancer Center, anunciou recentemente que estava cancelando o programa. O hospital dinamarquês também disse que estava abandonando o programa depois que descobriu que oncologistas discordavam de Watson em duas das três ocasiões.

O problema com a oncologia Watson era que os médicos simplesmente não confiavam nele. A confiança das pessoas geralmente depende de nossa compreensão de como as outras pessoas pensam e de nossa própria experiência, o que aumenta a confiança em suas opiniões. Isso cria uma sensação psicológica de segurança. A IA, por outro lado, é relativamente nova e incompreensível para os humanos. Ele toma decisões com base em um sistema de análise sofisticado para identificar padrões ocultos potenciais e sinais fracos de grandes quantidades de dados.

Mesmo que possa ser explicado em termos técnicos, o processo de tomada de decisão de IA geralmente é muito complexo para a maioria das pessoas entender. Interagir com algo que não entendemos pode causar ansiedade e criar uma sensação de perda de controle. Muitas pessoas simplesmente não entendem como e com o que a IA funciona, porque isso acontece em algum lugar atrás da tela, em segundo plano.

Pela mesma razão, eles estão mais conscientes dos casos em que a IA está errada: pense no algoritmo do Google que classifica pessoas de cor como gorilas; o chatbot da Microsoft que se tornou nazista em menos de um dia; Veículo Tesla em modo de piloto automático resultando em acidente fatal. Esses exemplos infelizes receberam atenção desproporcional da mídia, destacando a agenda de que não podemos confiar na tecnologia. O aprendizado de máquina não é 100% confiável, em parte porque humanos o projetam.

Uma divisão na sociedade?

Os sentimentos que a inteligência artificial evoca penetram profundamente na natureza do ser humano. Cientistas conduziram recentemente um experimento no qual pesquisaram pessoas que assistiam a filmes sobre inteligência artificial (fantasia) sobre automação na vida cotidiana. Descobriu-se que, independentemente de a IA ser retratada de forma positiva ou negativa, simplesmente assistir a uma representação cinematográfica de nosso futuro tecnológico polariza as atitudes dos participantes. Os otimistas se tornam ainda mais otimistas e os céticos se fecham ainda mais.

Isso sugere que as pessoas são tendenciosas para a IA com base em seu próprio raciocínio, uma tendência profundamente arraigada de viés de confirmação: a tendência de buscar ou interpretar informações de forma a confirmar conceitos pré-existentes. Como a IA é cada vez mais apresentada na mídia, ela pode gerar profundas divisões na sociedade, uma cisão entre aqueles que usam IA e aqueles que a rejeitam. Um grupo predominante de pessoas pode obter uma grande vantagem ou desvantagem.

Três maneiras de sair da crise de confiança da IA

Felizmente, temos algumas ideias sobre como lidar com a confiança em IA. A experiência com IA sozinha pode melhorar drasticamente a atitude das pessoas em relação a essa tecnologia. Também há evidências de que quanto mais você usa certas tecnologias (como a Internet), mais você confia nelas.

Outra solução pode ser abrir a caixa preta dos algoritmos de aprendizado de máquina e fazê-los funcionar de forma mais transparente. Empresas como Google, Airbnb e Twitter já estão publicando relatórios de transparência sobre consultas e divulgações governamentais. Esse tipo de prática em sistemas de IA ajudará as pessoas a obter o entendimento necessário de como os algoritmos tomam decisões.

Pesquisas mostram que envolver pessoas na tomada de decisões de IA também aumentará a confiança e permitirá que a IA aprenda com a experiência humana. O estudo descobriu que as pessoas que tiveram a oportunidade de modificar ligeiramente o algoritmo se sentiram mais satisfeitas com os resultados de seu trabalho, provavelmente devido a uma sensação de superioridade e a capacidade de influenciar resultados futuros.

Não precisamos entender o funcionamento interno intrincado dos sistemas de IA, mas se dermos às pessoas mesmo um pouco de informação e controle sobre como esses sistemas são implementados, elas terão mais confiança e desejo de adotar a IA em suas vidas diárias.

Ilya Khel

Recomendado: