A IA Pode Mudar Nossas Vidas Para Sempre - Mas Atualmente Estamos Em Um Caminho Sombrio - Visão Alternativa

A IA Pode Mudar Nossas Vidas Para Sempre - Mas Atualmente Estamos Em Um Caminho Sombrio - Visão Alternativa
A IA Pode Mudar Nossas Vidas Para Sempre - Mas Atualmente Estamos Em Um Caminho Sombrio - Visão Alternativa

Vídeo: A IA Pode Mudar Nossas Vidas Para Sempre - Mas Atualmente Estamos Em Um Caminho Sombrio - Visão Alternativa

Vídeo: A IA Pode Mudar Nossas Vidas Para Sempre - Mas Atualmente Estamos Em Um Caminho Sombrio - Visão Alternativa
Vídeo: Eu Quero Ser Livre! 2024, Pode
Anonim

A inteligência artificial (IA) já está remodelando o mundo de maneiras visíveis. Os dados impulsionam nosso ecossistema digital global, e as tecnologias de IA revelam padrões nos dados.

Smartphones, casas e cidades inteligentes estão influenciando a maneira como vivemos e interagimos, e os sistemas de inteligência artificial estão cada vez mais envolvidos nas decisões de contratação, diagnósticos médicos e julgamento. Se esse cenário é utópico ou distópico, depende de nós.

Os riscos potenciais da IA são listados muitas vezes. Robôs assassinos e desemprego em massa são problemas comuns, enquanto algumas pessoas até temem a extinção. Projeções mais otimistas afirmam que a IA acrescentará US $ 15 trilhões à economia global até 2030 e, por fim, nos levará a algum tipo de nirvana social.

Certamente precisamos considerar o impacto que tais tecnologias têm em nossas sociedades. Uma questão importante é que os sistemas de IA reforçam os preconceitos sociais existentes - com um efeito devastador.

Vários exemplos notórios desse fenômeno têm recebido grande atenção: modernos sistemas automatizados de tradução automática e sistemas de reconhecimento de imagem.

Esses problemas surgem porque tais sistemas usam modelos matemáticos (como redes neurais) para definir padrões em grandes conjuntos de dados de treinamento. Se esses dados forem gravemente distorcidos de várias maneiras, os erros inerentes serão inevitavelmente estudados e reproduzidos por sistemas treinados.

As tecnologias autônomas tendenciosas são problemáticas porque podem potencialmente isolar grupos como mulheres, minorias étnicas ou idosos, exacerbando assim os desequilíbrios sociais existentes.

Se os sistemas de IA forem treinados, por exemplo, a partir de dados de prisão da polícia, então qualquer preconceito consciente ou inconsciente manifestado em esquemas de prisão existentes será duplicado pelo sistema de IA de “previsão policial” treinado a partir desses dados.

Vídeo promocional:

Reconhecendo as sérias implicações disso, várias organizações conceituadas recomendaram recentemente que todos os sistemas de inteligência artificial sejam treinados em dados objetivos. As diretrizes éticas publicadas no início de 2019 pela Comissão Europeia sugeriram a seguinte recomendação:

Quando os dados são coletados, eles podem conter erros construídos socialmente, imprecisões. Isso deve ser resolvido antes de treinar a IA em qualquer conjunto de dados.

Tudo isso parece bastante razoável. Infelizmente, às vezes simplesmente não é possível garantir a imparcialidade de certos conjuntos de dados antes do treinamento. Um exemplo concreto deve esclarecer isso.

Todos os sistemas modernos de tradução automática (como o Google Translate) aprendem com pares de frases.

O sistema anglo-francês usa dados que ligam frases em inglês ("ela é alta") com frases em francês equivalentes ("elle est grande").

Pode haver 500 milhões desses pares em um determinado conjunto de dados de treinamento e, portanto, apenas um bilhão de sentenças individuais. Todo preconceito de gênero deve ser removido deste tipo de conjunto de dados se quisermos evitar que resultados como os seguintes sejam gerados no sistema:

A tradução francesa foi criada usando o Google Translate em 11 de outubro de 2019 e está incorreta: "Ils" é um plural masculino em francês e aparece aqui apesar do contexto indicar claramente que está sendo referenciado nas mulheres.

Este é um exemplo clássico de um sistema automatizado que prefere o padrão masculino padrão devido ao viés nos dados de treinamento.

No geral, 70 por cento dos pronomes genéricos nos conjuntos de dados de tradução são masculinos e 30 por cento são femininos. Isso se deve ao fato de que os textos utilizados para tais fins se referem mais a homens do que a mulheres.

A fim de evitar a repetição dos erros existentes no sistema de tradução, seria necessário excluir pares específicos de frases dos dados para que os pronomes masculino e feminino se encontrassem na proporção de 50/50 tanto do lado inglês quanto do francês. Isso impedirá o sistema de atribuir probabilidades mais altas aos pronomes masculinos.

E mesmo que o subconjunto de dados resultante seja totalmente equilibrado por gênero, ele ainda será distorcido de várias maneiras (por exemplo, étnico ou etário). Na verdade, seria difícil eliminar completamente todos esses erros.

Se uma pessoa dedicar apenas cinco segundos para ler cada uma das frases de um bilhão nos dados de treinamento de IA, levará 159 anos para testar todas - e isso pressupõe a disposição de trabalhar dia e noite, sem intervalos para o almoço.

Alternativo?

Portanto, não é realista exigir que todos os conjuntos de dados de treinamento sejam imparciais antes que os sistemas de IA sejam construídos. Esses requisitos de alto nível geralmente assumem que "IA" denota um cluster homogêneo de modelos matemáticos e abordagens algorítmicas.

Na verdade, diferentes tarefas de IA exigem tipos de sistemas completamente diferentes. E subestimar totalmente essa diversidade mascara os problemas reais associados a, digamos, dados altamente distorcidos. Isso é lamentável, pois significa que outras soluções para o problema de polarização de dados são negligenciadas.

Por exemplo, vieses em um sistema de tradução automática treinado podem ser significativamente reduzidos se o sistema for adaptado depois de ter sido treinado em um grande conjunto de dados, inevitavelmente tendencioso.

Isso pode ser feito usando um conjunto de dados muito menor e menos distorcido. Portanto, a maioria dos dados pode ser altamente tendenciosa, mas não é necessário um sistema treinado. Infelizmente, esses métodos raramente são discutidos por aqueles que desenvolvem diretrizes e estruturas legais para pesquisas em IA.

Se os sistemas de IA simplesmente agravam os desequilíbrios sociais existentes, é mais provável que desencorajem do que promovam mudanças sociais positivas. Se as tecnologias de IA que cada vez mais usamos diariamente fossem muito menos tendenciosas do que nós, elas poderiam nos ajudar a reconhecer e confrontar nossos próprios preconceitos ocultos.

Claro, é por isso que devemos nos esforçar. Portanto, os designers de IA precisam pensar com muito mais cuidado sobre as implicações sociais dos sistemas que eles criam, enquanto aqueles que escrevem sobre IA precisam entender mais profundamente como os sistemas de IA são realmente projetados e construídos.

Porque se realmente estamos nos aproximando de um idílio tecnológico ou de um apocalipse, o primeiro seria preferível.

Victoria Vetrova

Recomendado: