Foi acidental, mas aconteceu. E levanta sérias questões sobre a eficácia e ética da aplicação da inteligência artificial (IA) nos processos de recrutamento e de gestão de talento. O gigante de comércio eletrónico Amazon estava desde 2014 a testar um algoritmo para analisar currículos de candidatos e automatizar todo o seu processo de contratação, sobretudo de perfis mais técnicos. A ferramenta não só permitiria reduzir os custos da empresa na identificação de candidatos como encurtaria o tempo associado ao processo. O que correu mal? A Amazon estranhou não ter mulheres entre os candidatos. Elas, na verdade, estavam lá, mas o algoritmo achou que a empresa não as queria e preferia contratar homens. A empresa recusa comentar, mas através de um porta-voz admitiu à agência Reuters que abandonou recentemente o projeto.
A experiência da Amazon com o desenvolvimento de algoritmos de recrutamento arrancou há quatro anos. Nessa altura, os sistemas de machine learning (capacidade de ‘treinar’ o algoritmo para criar padrões de atuação e aprender a partir da replicação de ações ou identificação de dados e padrões dominantes) ganhavam tração em todo o mundo. O momento era também de viragem e de crescimento para a Amazon, que enfrentava nessa altura o desafio de dar resposta (em quantidade e qualidade) às suas necessidades de crescimento, contratando milhares de profissionais a nível global, sobretudo em áreas muito técnicas e de grande especificidade tecnológica.
Desde 2015, o número de trabalhadores da empresa mais do que triplicou. A Amazon soma hoje perto de 576 mil trabalhadores, e 60% são homens. E parecendo a prevalência masculina uma questão de mero detalhe (própria da escassez de mulheres nas carreiras tecnológicas), não o é. “O algoritmo desenvolvido pelo hub tecnológico da Amazon tinha como objetivo percorrer a internet e identificar candidatos que valesse a pena contratar para funções tecnológicas”, explica fonte da empresa citada pela Reuters. A equipa de engenheiros criou mais de 500 perfis ideais de candidatos, em funções específicas e em localizações distintas, e treinou cada um deles para reconhecer mais de 50 mil termos em currículos de antigos candidatos e profissionais da empresa.
As máquinas também ?têm preconceitos?
O sistema considerou os currículos e perfis contratados pela empresa na última década. E esses eram, como são hoje, maioritariamente masculinos. Ou seja, partindo da replicação de modelos passados, o algoritmo presumiu que a empresa contrataria preferencialmente homens e discriminou as mulheres nos processos de candidatura. Os engenheiros da Amazon chegaram a editar o programa várias vezes para garantir a sua neutralidade no processo de seleção, “mas não havia garantia de que o algoritmo não gerasse outras formas de triagem que acabassem por se revelar igualmente discriminatórias”, explica fonte da empresa.
O projeto ficou na gaveta, mas a experiência da Amazon serve de alerta às organizações que, em todo o mundo, estão a recorrer à inteligência artificial para suportar os seus processos de recrutamento. E são muitas. A Goldman Sachs criou uma ferramenta própria que analisa currículos e tenta compatibilizar candidatos com a divisão da empresa onde o seu talento seria mais bem aplicado. O LinkedIn, é sabido, oferece aos recrutadores rankings de candidatos (filtrados por algoritmos) baseados na sua compatibilidade com as vagas de emprego que divulgam na rede. E, por cá, a multinacional de recrutamento Randstad também identifica candidatos com recurso a algoritmos, mas José Miguel Leonardo, diretor-geral da empresa, sempre garantiu que “a Randstad não prescinde do elemento humano no processo”.
Mas as fragilidades destes sistemas estão a fazer soar muitos alertas entre os recrutadores. Apesar de as soluções de automação estarem a ganhar cada vez mais adeptos nos departamentos de recursos humanos — 40% das organizações a nível global já utilizam algoritmos em processos de recrutamento — e de as soluções no mercado serem cada vez mais e com maior especificidade, não é possível garantir com fiabilidade que estes sistemas não discriminam candidatos. Uma pesquisa recente da consultora PwC sugere que os algoritmos desenvolvidos para identificar talento têm de facto potencial, mas não podem ser utilizados ainda sem intervenção humana. Uma das grandes questões que colocam é a incapacidade de garantir que a máquina não replica práticas de recrutamento erradas da organização.
Em entrevista ao Expresso, o advogado Tiago Cochofel Azevedo, especialista em Direito Laboral da sociedade Vieira de Almeida e Associados, alerta exatamente para esta questão, relembrando que os candidatos podem opor-se a um recrutamento exclusivamente mediado pela tecnologia e requerer a intervenção humana (o Regulamento Geral da Proteção de Dados prevê-o). Nenhuma máquina, explica, “pode ser programada para fazer a triagem de candidatos com base no que se designa de dados sensíveis: origem étnica, orientação política, convicções religiosas ou filosóficas, orientação sexual, dados biométricos, dados genéticos e de saúde ou filiação sindical”. Contudo, o advogado admite que “um algoritmo, identificando o padrão de uma determinada empresa que contrata tipicamente homens, tenderá a excluir mulheres”. E é por isso que, para o especialista, “a imparcialidade da máquina é uma utopia”.