Em uma empresa, a inteligência artificial (ou IA) joga contra ou a favor da diversidade? Essa foi a provocação proposta pela Fast Company a dois especialistas: Katarina Berg, diretora de recursos humanos do Spotify, e Tomas Chamorro-Premuzic, cientista de talentos do ManpowerGroup e professor de psicologia empresarial da Universidade de Columbia.
Eles argumentam que a IA não é ruim para a diversidade, desde que a tecnologia tenha sido criada por pessoas diferentes entre si. E listam alguns pontos em que esse processo pode melhorar.
Para começar, eles explicam que uma das questões mais importantes nessa discussão é se a tecnologia pode nos ajudar a tomar decisões imparciais. A resposta é: a IA só pode ser imparcial se aprender com dados imparciais (o que é difícil de acontecer).
Numa seleção de currículos, por exemplo, a IA escolhe os candidatos ideiais para determinada vaga com base em dados anteriores de pessoas que já se deram bem naquele posto, com base nas avaliações feitas por seus gestores.
O problema, segundo a Fast Company, é que a avaliação do bom desempenho de alguém carrega um viés, que por sua vez é transferido para a IA. A saída, portanto, seria ter um conjunto bem maior de dados limpos, não corrompidos, para não transferir nossos vieses para o aprendizado da máquina.
Equipe diversa para uma IA diversa
Voltando uma casa, o desenvolvimento de uma tecnologia imparcial depende também de ter uma equipe diversa, para ter um leque maior de perspectiva e diversidade de pensamento —mas 8 em cada 10 profissionais que trabalham com IA são homens, segundo o Fórum Econômico Mundial.
“Embora a diversidade seja difícil, a inclusão é ainda mais difícil”, aponta a publicação. Por isso é importante que as empresas coloquem em prática ações para incorporar as pessoas de um modo que celebrem-se as suas diferenças e usem algoritmos para medir essa inclusão.
Um exemplo é fazer o processamento de linguagem para detectar se mulheres, pessoas negras, LGBTQIAP+ ou com deficiência, por exemplo, são tratadas com palavras mais negativas ou agressivas. Ou se sofrem microagressões, que podem ser detectadas por algoritmos treinados para reconhecer eufemismos e frases passivo-agressivas.
IA e meritocracia
Além disso, metadados de e-mail podem revelar se são excluídos das redes sociais centrais da organização, e medidas de tempo de reação para respostas de e-mail mostram se as mensagens dessas pessoas costumam ser ignoradas por mais tempo.
Por fim, a publicação afirma que a IA pode ser usada até mesmo a favor da meritocracia, uma vez que os algoritmos podem ser usados para quantificar o valor que cada profissional traz para a equipe ou para a empresa sem ser influenciado por questões subjetivas.
Ou seja, em vez de olhar para o gênero, a idade ou a cor de uma pessoa, a IA avaliaria o que realmente importa para a função —como vendas, lucros, produtividade, inovação e engajamento— para medir o desempenho de cada um.