A inteligência artificial é boa ou ruim para a diversidade?

Algoritmos podem ajudar na inclusão e no desenvolvimento de carreiras —desde que sejam criados por pessoas diversas

Em uma empresa, a inteligência artificial (ou IA) joga contra ou a favor da diversidade? Essa foi a provocação proposta pela Fast Company a dois especialistas: Katarina Berg, diretora de recursos humanos do Spotify, e Tomas Chamorro-Premuzic, cientista de talentos do ManpowerGroup e professor de psicologia empresarial da Universidade de Columbia.

Eles argumentam que a IA não é ruim para a diversidade, desde que a tecnologia tenha sido criada por pessoas diferentes entre si. E listam alguns pontos em que esse processo pode melhorar.

Para começar, eles explicam que uma das questões mais importantes nessa discussão é se a tecnologia pode nos ajudar a tomar decisões imparciais. A resposta é: a IA só pode ser imparcial se aprender com dados imparciais (o que é difícil de acontecer). 

Numa seleção de currículos, por exemplo, a IA escolhe os candidatos ideiais para determinada vaga com base em dados anteriores de pessoas que já se deram bem naquele posto, com base nas avaliações feitas por seus gestores.

O problema, segundo a Fast Company, é que a avaliação do bom desempenho de alguém carrega um viés, que por sua vez é transferido para a IA. A saída, portanto, seria ter um conjunto bem maior de dados limpos, não corrompidos, para não transferir nossos vieses para o aprendizado da máquina.

Equipe diversa para uma IA diversa

Voltando uma casa, o desenvolvimento de uma tecnologia imparcial depende também de ter uma equipe diversa, para ter um leque maior de perspectiva e diversidade de pensamento —mas 8 em cada 10 profissionais que trabalham com IA são homens, segundo o Fórum Econômico Mundial. 

“Embora a diversidade seja difícil, a inclusão é ainda mais difícil”, aponta a publicação. Por isso é importante que as empresas coloquem em prática ações para incorporar as pessoas de um modo que celebrem-se as suas diferenças e usem algoritmos para medir essa inclusão.

Um exemplo é fazer o processamento de linguagem para detectar se mulheres, pessoas negras, LGBTQIAP+ ou com deficiência, por exemplo, são tratadas com palavras mais negativas ou agressivas. Ou se sofrem microagressões, que podem ser detectadas por algoritmos treinados para reconhecer eufemismos e frases passivo-agressivas.

IA e meritocracia

Além disso, metadados de e-mail podem revelar se são excluídos das redes sociais centrais da organização, e medidas de tempo de reação para respostas de e-mail mostram se as mensagens dessas pessoas costumam ser ignoradas por mais tempo.

Por fim, a publicação afirma que a IA pode ser usada até mesmo a favor da meritocracia, uma vez que os algoritmos podem ser usados para quantificar o valor que cada profissional traz para a equipe ou para a empresa sem ser influenciado por questões subjetivas.

Ou seja, em vez de olhar para o gênero, a idade ou a cor de uma pessoa, a IA avaliaria o que realmente importa para a função —como vendas, lucros, produtividade, inovação e engajamento— para medir o desempenho de cada um.

Esse conteúdo foi útil para você?
SimNão

Publicações relacionadas