Aguarde, carregando vaga
Publicidade

Como aplicar IA ao recrutamento sem prejudicar pessoas com deficiência

[ad_1]

Publicidade

O uso de inteligência artificial tem sido crescente em processos de recrutamento. De fato, a tecnologia se mostra bastante útil à medida que facilita o processo de organização e triagem de candidaturas ao, por exemplo, atribuir escores a candidatos a partir de suas características e, assim, informar decisões de recrutadores.

Publicidade

Contudo, como não poderia ser diferente, há riscos. Casos recentes contam várias histórias de pessoas que acabaram prejudicadas em processos de recrutamento, por causa da captura e análise tecnológica de traços e aspectos diversos, como vestimentas, origem do nome, menções a colégios frequentados apenas por pessoas de determinado gênero e até itens que aparecem em segundo plano durante uma entrevista.

Recrutamento e seleçãoFonte: Shutterstock

Preocupados com essa realidade, em especial no que diz respeito às pessoas com deficiência (PCDs), nos Estados Unidos, o Departamento de Justiça (DOJ) e a Comissão de Oportunidades de Emprego Igualitárias (EEOC), neste último mês de maio, publicaram orientações para que as organizações assegurem a adequada aplicação de inteligência artificial em processos de recrutamento visando à preservação de direitos dos indivíduos envolvidos.

Na visão dessas instituições, recrutadores devem:

  • Providenciar adaptações razoáveis a candidatos com deficiência. Portanto, é preciso treinar empregados para (i) reconhecer e atender pedidos de adaptação o mais rápido possível (exemplos: pedidos para refazer o teste ou ser avaliado de forma alternativa após resultados insatisfatórios); (ii) desenvolver formas alternativas de avaliação de candidatos solicitantes de adaptação; e (iii) caso empreguem terceiros para administrar as solicitações de candidatos, demandar que encaminhem prontamente os pedidos de adaptação recebidos ou, então, prestem pronto atendimento direto aos candidatos.

Mapear e mitigar riscos chega a ser mais do que uma boa prática.

Publicidade
  • Minimizar os riscos de que as decisões prejudiquem, de forma intencional ou não, pessoas com deficiência. Portanto, é preciso (i) utilizar tecnologias de tomada de decisão projetadas e testadas com olhar para a acessibilidade e os variados tipos de deficiência; (ii) informar os candidatos da possibilidade e dos meios para solicitação de adaptações; e (iii) descrever, em linguagem simples e acessível, o funcionamento do algoritmo, com indicação geral de fatores que podem afetar a classificação.

  • Veja também: O que o urso-polar tem a ver com inteligência artificial?
  • Minimizar os riscos de que as ferramentas algorítmicas atribuam classificações insuficientes a indivíduos capazes de desempenhar as funções essenciais da vaga com adaptações razoáveis. Portanto, é preciso (i) garantir que a tecnologia meça apenas habilidades ou qualificações realmente necessárias; (ii) garantir que as habilidades e qualificações necessárias sejam medidas diretamente ,e não inferidas a partir de outras características ou escores.

  • Solicitar a fornecedores previamente a aquisição de tecnologia, confirmação de que a ferramenta a ser adquirida não busca informações ou direciona a candidatos questões que possam elucidar informações sobre deficiência, a menos que tais perguntas estejam relacionadas aos pedidos de adaptação formulados.

O recado final é o de que o emprego de tecnologias inovadoras, bem como a aplicação inovadora de tecnologias existentes, requer cautela e planejamento, para que não discrimine alguém. Isso contribui para a manutenção da relação de confiança entre a organização e os indivíduos envolvidos e, de quebra, resulta no fortalecimento reputacional da organização.

***
Paulo Vidigal, colunista do TecMundo, é sócio do escritório Prado Vidigal, especializado em direito digital, privacidade e proteção de dados. Certificado pela International Association of Privacy Professionals (CIPP/E), é pós-graduado em MBA na área de Direito Eletrônico pela Escola Paulista de Direito. Apresenta extensão em Privacidade e Proteção de Dados pela Universidade Presbiteriana Mackenzie e em Privacy by Design pela Ryerson University.

[ad_2]