Cientistas e programadores pararam de entender como a inteligência artificial toma decisões. Este problema foi anunciado por vários especialistas na principal conferência de AI - Neural Information Processing Systems - realizada em Long Beach (Califórnia).
Especialistas entrevistados pelo Quartz dizem que precisam agir antes que o sistema fique muito complexo.
“Não queremos tomar decisões de IA como certas sem entender sua lógica”, diz Jason Yosinski, do Uber. "Para que a sociedade aceite os modelos de aprendizado de máquina, precisamos saber como a IA chega a certas conclusões."
O problema que muitos especialistas chamam de “caixa preta” é realmente sério. A experiência anterior mostrou que a IA tem tendência a tomar decisões tendenciosas e fazer analogias onde não deveriam. À medida que as redes neurais hoje se infiltram gradualmente na aplicação da lei, no sistema de saúde, na pesquisa científica e nos algoritmos que determinam o que você vê no feed de notícias do Facebook, o erro de IA pode ser muito caro.
Como exemplo, Kiri Wagstaff, especialista em IA do Jet Propolusion Lab (NASA), cita uma missão a Marte. Os dispositivos estão localizados a 200 milhões de milhas da Terra e custam centenas de milhões de dólares, portanto, quaisquer erros no trabalho de IA são simplesmente inaceitáveis.
“As pessoas precisam saber o que a IA está fazendo e por quê. Caso contrário, como eles podem confiar nele para controlar equipamentos caros?”, Diz Wagstaff.
No momento, o cientista está trabalhando em um algoritmo que classifica as imagens obtidas por várias espaçonaves da NASA. Como o número de imagens chega a milhões, o computador permite classificar e destacar as mais interessantes sem gastar muito tempo neste processo. O problema, no entanto, reside no fato de que muitas vezes apenas a IA sozinha sabe por que certas imagens que seleciona são incomuns.
Assim, conclui Wagstaff, se houver um erro dentro desse algoritmo, um dia ele poderá perder informações muito importantes.
Vídeo promocional:
“Basicamente, o computador fornece uma imagem e diz: 'Olha, isso é interessante.' Mas nem sempre se entende porque é interessante: pela cor, forma dos objetos ou pela localização no espaço - provavelmente você não sabe disso”, diz o cientista.
Hannah Wallach, pesquisadora sênior da Microsoft, concorda com as conclusões de seus colegas.
“Conforme o aprendizado de máquina se torna mais disseminado e as apostas aumentam, não podemos mais ver esses sistemas como caixas pretas. Precisamos entender o que está acontecendo dentro deles e o que estão fazendo”, disse a pesquisadora.
Felizmente, os cientistas estão tentando encontrar métodos para entender a lógica da inteligência artificial. Assim, Mitra Raghu, pesquisador do Google, apresentou um relatório que descreve o processo de rastreamento das ações de "neurônios" individuais de uma rede neural. Analisando milhões de operações, ela foi capaz de descobrir quais dos "neurônios" artificiais se concentravam em equívocos e desligá-los. Isso prova que traduzir o trabalho das redes neurais em uma forma acessível ao entendimento humano não é uma tarefa impossível.
Outra opção para resolver o problema é testar regularmente as habilidades desenvolvidas pela inteligência artificial.
“É como se os professores pedissem às crianças que contassem com suas próprias palavras o que entenderam com a explicação do professor”, diz Wagstaff.
Dito isso, a importância de compreender os aspectos internos do algoritmo não é apenas evitar que um rover hipotético caia de uma rocha marciana; percebendo qual é a falha, você pode tornar os sistemas existentes ainda melhores.
“Se o seu sistema não funciona e você não sabe por quê, é muito difícil fazer algo a respeito”, diz Yosinski. "Se você sabe o que aconteceu, então a situação sempre pode ser corrigida."
Materiais usados do site hightech.fm