Por Que Os Cientistas Não Devem Confiar Na Inteligência Artificial Para Descobertas Científicas - Visão Alternativa

Por Que Os Cientistas Não Devem Confiar Na Inteligência Artificial Para Descobertas Científicas - Visão Alternativa
Por Que Os Cientistas Não Devem Confiar Na Inteligência Artificial Para Descobertas Científicas - Visão Alternativa

Vídeo: Por Que Os Cientistas Não Devem Confiar Na Inteligência Artificial Para Descobertas Científicas - Visão Alternativa

Vídeo: Por Que Os Cientistas Não Devem Confiar Na Inteligência Artificial Para Descobertas Científicas - Visão Alternativa
Vídeo: Questões éticas da Inteligência Artificial / Ethical issues with AI | Ana Sofia Carvalho | TEDxPorto 2024, Pode
Anonim

Vivemos em uma era de ouro de dados científicos, cercados por vastas reservas de informações genéticas, imagens médicas e dados astronômicos. Os recursos atuais dos algoritmos de aprendizado de máquina permitem que a inteligência artificial estude esses dados com a mesma rapidez e ao mesmo tempo com muito cuidado, muitas vezes abrindo a porta para novas descobertas científicas em potencial. No entanto, não devemos confiar cegamente nos resultados da pesquisa científica conduzida pela IA, diz o pesquisador da Rice University, Genever Allen. Pelo menos não no nível atual de desenvolvimento desta tecnologia. Segundo o cientista, o problema está no fato de os modernos sistemas de IA não terem a capacidade de avaliar criticamente os resultados de seus trabalhos.

Segundo Allen, sistemas de IA que utilizam métodos de aprendizado de máquina, ou seja, quando o aprendizado ocorre no processo de aplicação de soluções para muitos problemas semelhantes, e não simplesmente pela introdução e cumprimento de novas regras e regulamentos, podem ser confiáveis para tomar algumas decisões. Mais precisamente, é perfeitamente possível atribuir tarefas à IA na resolução de problemas nas áreas em que o resultado final pode ser facilmente verificado e analisado pelo próprio indivíduo. Como exemplo, podemos tomar, digamos, contar o número de crateras na lua ou prever tremores secundários após um terremoto.

No entanto, a precisão e a eficiência de algoritmos mais complexos que são usados para analisar grandes quantidades de dados para encontrar e determinar fatores ou relacionamentos anteriormente desconhecidos entre diferentes funções "são muito mais difíceis de verificar", observa Allen. Assim, a impossibilidade de verificar os dados combinados por tais algoritmos pode levar a conclusões científicas errôneas.

Tome, por exemplo, a medicina de precisão, onde especialistas analisam metadados de pacientes para encontrar grupos específicos de pessoas com características genéticas semelhantes para desenvolver tratamentos eficazes. Alguns programas de IA projetados para filtrar dados genéticos são de fato eficazes na identificação de grupos de pacientes com predisposição semelhante, por exemplo, para desenvolver câncer de mama. No entanto, eles se revelaram completamente ineficazes na identificação de outros tipos de câncer, por exemplo, colorretal. Cada algoritmo analisa os dados de forma diferente, portanto, ao combinar os resultados, muitas vezes pode haver um conflito na classificação da amostra do paciente. Isso, por sua vez, faz com que os cientistas se perguntem sobre em qual IA confiar.

Essas contradições surgem pelo fato de os algoritmos de análise de dados serem projetados de forma a obedecer às instruções contidas nesses algoritmos, o que não deixa espaço para indecisões, incertezas, explica Allen.

Os cientistas não gostam de incertezas. No entanto, os métodos tradicionais para determinar as incertezas de medição são projetados para os casos em que é necessário analisar dados que foram especialmente selecionados para avaliar uma determinada hipótese. Não é assim que funcionam os programas de IA para mineração de dados. Esses programas não são movidos por nenhuma ideia orientadora e simplesmente analisam conjuntos de dados coletados sem qualquer propósito específico em particular. Portanto, muitos pesquisadores de IA, incluindo a própria Allen, estão agora desenvolvendo novos protocolos que permitirão aos sistemas de IA de próxima geração avaliar a precisão e reprodutibilidade de suas descobertas.

Vídeo promocional:

O pesquisador explica que um dos novos métodos de mineração será baseado no conceito de reamostragem. Por exemplo, se um sistema de IA deve fazer uma descoberta importante, por exemplo, identifica grupos de pacientes que são clinicamente importantes para a pesquisa, então essa descoberta deve ser exibida em outros bancos de dados. É muito caro para os cientistas criar conjuntos de dados novos e maiores para validar a amostragem de IA. Portanto, de acordo com Allan, pode ser utilizada uma abordagem em que “será utilizado um conjunto de dados existente, informação em que será misturada aleatoriamente de forma a simular uma base de dados completamente nova”. E se repetidamente a IA pode determinar os traços característicos que possibilitam realizar a classificação necessária, “então será possível considerarque você tem uma descoberta realmente real em suas mãos”, acrescenta Allan.

Nikolay Khizhnyak

Recomendado: