Inteligência Artificial A Amazon Fechou Quando Percebeu Que As Mulheres São Piores Do Que Os Homens - - Visão Alternativa

Índice:

Inteligência Artificial A Amazon Fechou Quando Percebeu Que As Mulheres São Piores Do Que Os Homens - - Visão Alternativa
Inteligência Artificial A Amazon Fechou Quando Percebeu Que As Mulheres São Piores Do Que Os Homens - - Visão Alternativa

Vídeo: Inteligência Artificial A Amazon Fechou Quando Percebeu Que As Mulheres São Piores Do Que Os Homens - - Visão Alternativa

Vídeo: Inteligência Artificial A Amazon Fechou Quando Percebeu Que As Mulheres São Piores Do Que Os Homens - - Visão Alternativa
Vídeo: O Perigo da INTELIGÊNCIA ARTIFICIAL 2024, Pode
Anonim

A inteligência artificial da Amazon, projetada para classificar os currículos dos candidatos a emprego, classificou os homens acima das mulheres. Em particular, ele rejeitou currículos com a palavra “feminino” e se ofereceu para contratar candidatos que usassem verbos masculinos típicos em sua fala, mesmo que essas pessoas não tivessem as habilidades necessárias. Como resultado, a empresa teve que encerrar o projeto.

Inteligência artificial de RH

Os especialistas em aprendizado de máquina da Amazon descobriram que a inteligência artificial que processa o currículo de candidatos a cargos na empresa discrimina as mulheres que procuram emprego, informou a Reuters. Esse recurso não foi incorporado intencionalmente ao sistema - foi o resultado do aprendizado de máquina.

Um mecanismo de classificação de currículos baseado em inteligência artificial está em desenvolvimento na Amazon desde 2014 por uma equipe de 12 pessoas em Edimburgo. Já em 2015, a empresa percebeu que o novo sistema não aderiu ao princípio da neutralidade de gênero na avaliação de candidatos a cargos de desenvolvimento de software e outras vagas técnicas.

Logo eles perceberam o motivo: o fato é que o sistema foi treinado nos currículos inseridos pela empresa nos últimos 10 anos. A maioria desses currículos era mantida por homens, o que reflete amplamente a situação no setor de TI. Como resultado, a inteligência artificial da Amazon aprendeu que os homens que procuram emprego têm preferência sobre as mulheres.

Rejeição linguística

Vídeo promocional:

Como resultado, a inteligência artificial começou a descartar currículos contendo a palavra "mulher" em expressões como "capitã do clube de xadrez feminino". O mecanismo também rebaixou as notas de graduadas de duas faculdades femininas, mas as fontes da Reuters não especificaram seus nomes. Ao avaliar currículos, a inteligência artificial deu-lhes entre uma e cinco estrelas - muito semelhante à forma como os compradores avaliam os produtos na Amazon.

O sistema também prestou atenção a outras palavras. Os desenvolvedores criaram 500 modelos de computador para diferentes responsabilidades de trabalho e localizações geográficas. Cada modelo foi treinado para reconhecer cerca de 50 mil palavras-sinal que estavam presentes no currículo do candidato.

Image
Image

Vale ressaltar que o mecanismo ignorou palavras que denotam habilidades que muitas vezes são explicitadas nos currículos dos profissionais de TI, como a capacidade de escrever vários códigos etc. Em vez disso, o sistema rastreou, por exemplo, verbos típicos para a fala masculina na autodescrição dos candidatos, como "cumprido" (executados) ou "capturados", como eram regularmente vistos em currículos antigos com os quais a máquina aprendia. Com essa abordagem, a discriminação de gênero não era o único problema - o mecanismo geralmente recomendava pessoas que não tinham as habilidades necessárias para o cargo.

O destino posterior do projeto

A Amazon ajustou o sistema para que ele não responda mais a palavras-sinal. No entanto, isso não era uma garantia de que o mecanismo não encontraria outra forma de identificar currículos pertencentes a mulheres. No início de 2017, a empresa ficou desiludida com o projeto e desfez a equipe. Fontes da Reuters dizem que os especialistas de RH levaram em consideração as recomendações do sistema, mas nunca confiaram apenas nelas.

Uma das fontes afirma que o projeto está encerrado. Outro argumenta que uma nova equipe foi formada em Edimburgo para continuar desenvolvendo o mecanismo, mas desta vez com foco na equidade e inclusão. Outra fonte relata que uma versão fortemente modificada do mecanismo agora está sendo usada para realizar trabalhos de rotina, como remover currículos duplicados do banco de dados.