Notícias

< voltar
07/Fev/2019 - 13:00 - Atualizado em 07/Fev/2019 - 13:39

Inteligência artificial no RH: softwares podem discriminar mulheres e negros?

Rede de hotéis Hilton Worldwide usa tecnologia para contratar funcionários; especialistas pedem cautela


Por Pedro Matos/SIMI Belo Horizonte/MG
Crédito: Divulgação

O processo de seleção de candidatos para uma vaga de emprego, envolve, geralmente várias etapas de avaliação. Recrutadores de áreas saturadas ou de empresas muito cobiçadas recebem uma enxurrada de currículos a cada vaga anunciada. Por isso algumas organizações já começam a incluir a tecnologia nesse processo para aprimorar e acelerar a seleção de talentos.

É o caso por exemplo da rede de hotéis Hilton Worldwide, que conta com mais de 5 mil propriedades em 109 países e utiliza inteligência artificial e até reconhecimento facial como parte de seu processo de seleção.

Inicialmente, um sistema é responsável por identificar currículos de acordo com as palavras-chave correspondentes ao cargo disponível. Em seguida, os candidatos conversam com um chatbot que faz algumas perguntas mais genéricas, como a disponibilidade para trabalho remoto ou viagens, por exemplo.

Antes de ficar frente a frente com um humano, os profissionais que passam na etapa anterior realizam uma entrevista por vídeo com um aplicativo desenvolvido pela HireVue. Utilizando inteligência artificial, o software projeta questões, definidas em conjunto pelas equipes do Hilton e da HireVue, e, por meio de visão computacional, avalia as expressões faciais dos candidatos em cada resposta, identificando, por exemplo, se ele é amigável, empático e se terá sucesso no cargo que pretende ocupar.

Em entrevista para a Fast Company, Loren Larsen, chefe de tecnologia da HireVue, afirmou que a ferramenta é capaz de examinar cerca de 25 mil aspectos diferentes por vídeo, como as palavras, a voz e o rosto.

Ainda de acordo com a reportagem, desde que o Hilton Worldwide começou a utilizar o reconhecimento facial, em 2014, 43 mil candidatos a empregos participaram de entrevistas pelo sistema. Cerca de 28 mil tiveram seus pedidos rejeitados sem sequer serem vistos por uma única pessoa.

Mas, é confiável?

Mas tecnologias como a da HireVue podem ser consideradas 100% confiáveis a ponto de decidirem quem pode ou não assumir uma vaga de emprego? Para Joy Buolamwini, pesquisadora do MIT, a princípio, não. Joy, que tem herança ganense, identificou durante sua pós-graduação que a precisão de determinados softwares de detecção e reconhecimento facial variava de acordo com o tom de pele da pessoa. Diante de negros, a precisão caía consideravelmente. A própria pesquisadora fez um teste com uma ferramenta que só foi capaz de reconhecê-la quando ela colocou uma máscara branca em frente ao rosto.

Essa falha, inclusive, foi percebida em tecnologias da Microsoft, da Face ++ e da IBM, que são empresas de ponta do setor. Desde 2017, quando a pesquisadora realizou o estudo, as empresas vêm trabalhando para melhorar a precisão de seus respectivos softwares. Ainda assim, Joy Buolamwini acredita que a utilização de softwares como o da HireVue deve ser aprimorada e feita com muita cautela. A pesquisadora fundou, inclusive, a Liga de Justiça Algorítmica para cobrar o aperfeiçoamento de softwares e explicou no Ted Talk seu estudo. (Confira o vídeo abaixo com legenda em português).

A própria HireVue explica que o reconhecimento das expressões faciais não é exclusivamente um fator eliminatório na seleção de candidatos. Loren Larsen afirma que as expressões representam de 10% a 30% dessa classificação, variando de acordo com o pedido do empregador. O resto se baseia na linguagem usada pela pessoa.

Mesmo assim, o professor Erickson do Nascimento, do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais (UFMG) e integrante do Laboratório de Visão e Robótica (Verlab), acredita que esse argumento não soluciona o problema.

Erickson explica que o enviesamento ocorre devido à própria forma como os algoritmos são desenvolvidos. “A anotação da base de dados utilizadas por esses softwares é feita por humanos. Essas pessoas acabam enviesando a base. E o algoritmo ao extrair a informação que foi colocada lá, traz esse viés”.

Caso Amazon

Foi o que aconteceu com a Amazon.com, que também experimentou a inteligência artificial em seu processo de recrutamento de funcionários. Durante os testes a equipe responsável pela implementação da tecnologia descobriu um grave problema: sua ferramenta estava discriminando as mulheres.

O software da Amazon.com foi desenvolvido para examinar os candidatos observando os padrões em currículos de funcionários contratados pela empresa durante um período de 10 anos. Como a indústria de tecnologia era composta em sua maioria por homens, a ferramenta da Amazon entendeu que candidatos do sexo masculino eram os mais indicados.

Após descobrir a falha, a Amazon modificou os programas para torná-los neutros em relação ao gênero, mas perceberam que outros aspectos discriminatórios foram aparecendo. Por fim, a empresa desistiu do projeto.

“Esse exemplo da Amazon é muito bom. Imagina que você tenha um algoritmo que chega a conclusão que mulheres não são adequadas para um determinado cargo. Por mais que uma pessoa tome a decisão final na hora de contratar alguém, ela será tomada com uma base onde só tem homens”, argumenta o professor.

Apesar das brechas, a utilização de algoritmos, visão computacional e vários outros aspectos da inteligência artificial em atividades sensíveis, como segurança pública e recursos humanos parece ser um caminho sem volta. Erickson, no entanto, é otimista. O professor explica que a mobilização de diversos grupos de pesquisa pelo mundo e a preocupação com a reputação das instituições levarão a uma busca constante pelo aperfeiçoamento das soluções.

“O retorno financeiro da tecnologia é muito alto. Por outro lado, o custo de imagem social para um negócio enviesado também é. Tanto que a Amazon parou de usar o seu sistema. Por isso as pessoas estão trabalhando para reduzir o enviesamento no aprendizado desses algoritmos. Esse é o caminho”, conclui.

#inovação#tecnologia#RH#visãocomputacional#VerlabFavoritar

Comentários

As opiniões aqui expressas são de responsabilidade exclusiva dos leitores, não serão aceitas mensagens com ofensas pessoais, preconceituosas, ou que incitem o ódio e a violência. Clique aqui para acessar a íntegra do documento que rege a política de comentários do site.