Em quanto os softwares de RH discriminam candidatos?

Avatar do autor
Marcelo Marques
  • Ícone de um calendário
    29, nov, 2018
  • Ícone de um relógio
    6 min de leitura
  • Ícone de uma visualização
    522 Views
Navegue por tópicos
Compartilhar

"Os privilegiados são analisados por pessoas; as massas, por máquinas

Cathy O’Neil é doutora em matemática pela Universidade Harvard. A primeira vez que eu soube dela foi pelo podcast da revista The Economist. Cathy O'Neil é autora de um livro que tem um título engraçado: Weapons of Math Destruction. Esse título "brinca" com a frase "Weapons of Mass Destruction" que teria como Tradução “Armas para Destruição em Massa”. O livro não tem ainda (26/12/2018) tradução para o português.   O'Neil aponta 5 principais problemas para discriminação do uso de Big Data por parte de algorítmos e um deles é que o algoritmo é secreto e que pessoas que os utilizam não sabem como eles realmente tratam os dados, logo, a discriminação pode estar acontecendo sem que saibam.    

Quem discrimina mais? O software do RH ou o Gestor da Vaga?

Em recente entrevista no EL PAÍS, Cathy O´Neil comenta os problemas com algorítmos, inclusive de RH. Reproduzo aqui parte. Pergunta Ana Torres na metade da entrevista: O uso de algoritmos para a contratação está se espalhando. Quais são os preconceitos? Cathy O´Neil: A automatização dos processos de seleção está crescendo entre 10 e 15% ao ano. Nos Estados Unidos, já são usados com 60% dos trabalhadores em potencial, e 72% dos currículos não chegam a ser analisados por pessoas. Os algoritmos costumam castigar os pobres, enquanto os ricos recebem um trato mais pessoal. Por exemplo, um escritório de advocacia renomado ou um colégio privado de elite se basearão mais em recomendações e entrevistas pessoais durante os processos de seleção do que uma rede de fast food. Os privilegiados são analisados por pessoas, e as massas, por máquinas. Se você quiser trabalhar num call center ou como caixa, tem que passar por um teste de personalidade. Para um cargo no Goldman Sachs há uma entrevista. Sua humanidade é levada em conta para um bom trabalho. Para um emprego de salário baixo, você é simplesmente analisado e categorizado. Uma máquina lhe etiqueta.     Uma situação real no Brasil Presenciei uma situação em uma empresa de consultoria, cliente da Rankdone, em que uma vaga não era preenchida há mais de 2 meses e me chamaram para ver se o teste que estava sendo aplicado nos candidatos tinha sido escolhido erroneamente. Ao chegar lá, ouvi o problema e li a descrição da vaga do cliente. Abri a Rankdone na conta deste cliente e analisei os 10 candidatos melhor ranqueados de um total de 116. Destes 10 candidatos,  3 valiam muito a pena chamarem para entrevista pois além de terem ido bem nos testes técnicos também tinham pontuação boa no comportamental. 1 destes 3 candidatos era uma moça (vou colocar o nome fictício como "Paula") que no Ranking por nota de habilidade técnica estava em terceiro lugar e era a única que não aparentava ter tentado fraudar o teste. Quando questionei o motivo de não chamarem esses 3 para uma entrevita, o RH apontou que eles não tinham faculdade de primeira linha e não poderia chamá-los pois era uma exigência da área que estava contratando. O RH estava sendo questionado porque candidatos considerados "bons" estavam indo mal nos testes. Um dos candidatos “bons”, escolhido pela gerência, estava em vigésimo quarto lugar no teste de Excel... A percepção era que o teste da Rankdone escolhido pelo próprio cliente não estava adequado. Bem, não existe uma fórmula mágica para apontar qual teste seria "correto" para aquele candidato. Claro que o candidato ter estudado em universidade de primeira linha, ter vivência em outro país, possibilidade de começar a trabalhar somente após 18/20 anos de estudo, falar outra língua, permite à ele ser muito mais competitivo e ir melhor numa entrevista ou num teste. Mas também esse candidato talvez não aceitaria qualquer tipo de trabalho, função e aí o RH pode sofrer muito para encontrar 'bons candidatos'. Sou sócio de uma outra empresa de tecnologia, a 4Linux, e para nós a "Paula" do caso acima seria a primeira da lista para chamarmos para entrevista por um aspecto adicional às notas e às qualificações da nota que a Rankdone apontou: No currículo dela, o local de onde ela trabalha atualmente é bem longe de onde ela mora e ela está no mesmo emprego por mais de 3 anos. Para o RH da 4Linux, isso mostra persistência, uma pessoa esforçada por continuar no mesmo trabalho mesmo sendo bem longe. Isso não deixa de ser uma certa discriminação em relação aos outros também mas se ela tivesse ido mal nos testes, a 4Linux não a chamaríamos. Curiosamente, ela estava em primeiro lugar na avaliação comportamental da Rankdone e lá, "Cabeça de Dono" era uma das 5 competências avaliadas.     No caso acima, fica fácil culpar o RH por ele não trazer “bons candidatos” Como mudar isso? Não é fácil, mas estão começando a surgir soluções no mercado que visam gerar diversidade de candidatos para o RH. Apesar do RH poder utilizar a Rankdone sem conexão com outro software, algumas destas soluções têm procurado a Rankdone para usarem nossos testes. Talvez seja impossível eliminar 100% o viés de alguma discriminação, mas quando se testa o candidato dá-se a oportunidade para ele mostrar o que sabe. Quando o candidato vai mal num teste é possível ajudá-lo através de feedbacks como o que lançamos há pouco tempo, chamado Feedback Colaborativo de Conteúdo. Essa é a nossa contribuição mas tanto a Rankdone quando essas novas plataformas não vão resolver da noite para o dia os problemas de gestores que discriminam (talvez sem perceber) candidatos. Se você está prestes a escolher um software para seu RH, escolha um que permita aos candidatos serem escolhidos por suas habilidades técnicas e competências. O assunto discriminação vai se tornar cada vez mais forte. Recentemente o time Paris Saint Germain teve que vir a público se explicar porque selecionava pessoas de acordo com a cor da pele. A promotoria de Paris abriu uma investigação contra o clube.     Discriminação por parte de Software de RH é ficção? [caption id="attachment_1426" align="alignleft" width="300"] Foto extraída do site news.sky.com[/caption] No TED, Cathe O´Niel mostra que apesar de Cientistas de Dados e Desenvolvedores terem sempre boa intenção, se o CEO da FOX NEWS decidisse utilizar inteligência artificial para detectar quem tem mais probabilidade de sucesso para justamente promovê-los, as mulheres que reportaram abuso sexual provavelmente seriam discriminadas por tal algoritmo. Esse caso pode parecer ficção, mas anos atrás, se alguém apontasse a possibilidade de um povo ser influênciado e manipulado por FakeNews, Inteligência Artificial e manipulação dados em redes sociais, na escolha de um Presidente norte americano, esse alguém seria taxado de louco.      Agilidade para o RH Quem realmente quer a agilidade do RH? O RH? Isso fica para um próximo post...  Imagem Inserida
Compartilhar
Rankdone recomenda

Conteúdos para elevar o seu Recrutamento e Seleção!

Separamos os principais artigos sobre R&S para você!


Rankdone NewsLetter. Imagem de uma carta aberta com o logo da Rankdone na parte de cima
Inscreva-se para receber uma dose semanal de conteúdos grátis no seu e-mail!
plugins premium WordPress