* Por Milena Mendes Grado

É certo que a inteligência artificial fará parte do cotidiano dos departamentos de recursos humanos em curto prazo. No entanto, uma questão crucial precisa ser resolvida: garantir que o algoritmo seja justo e livre de preconceitos.

Em uma das suas experiências, a gigante Amazon descobriu que o algoritmo que estava sendo testado pela empresa tinha uma preferência por profissionais do sexo masculino, currículos com a presença da palavra mulher eram pior avaliados.

Acredita-se que isso ocorreu porque o algoritmo da companhia utilizou como base os dados da experiência de seleção e contratação dos últimos 10 (dez) anos da própria empresa, o que acabou por revelar que os processos na Amazon estavam contaminados por vieses e preconceitos, ainda que inconscientes.

É exatamente por essa razão que as principais violações podem ocorrer. Isso porque a inteligência artificial interpreta os dados inseridos no sistema e se os dados estão eivados de vieses e preconceitos, é consequência natural que essa interpretação também esteja.

Como resolver o problema? 

O professor Christo Wilson da Northeastern University em palestra realizada na Universidade de Harvard analisou algoritmos de ferramentas de busca de currículos buscando identificar exatamente vieses e preconceitos. A pesquisa, a princípio, afastou essa ocorrência. Porém, o professor se posicionou sobre como corrigir eventuais problemas.

Deixar de solicitar dados que identifiquem a pessoa pode não ser suficiente, uma vez que as bases podem estar contaminadas. Diante disso, o ideal é que seja feita uma correção ativa no algoritmo.

Ocorre que para fazer essas correções é possível que seja necessário solicitar dados adicionais dos usuários do sistema – dados ainda mais sensíveis. Por essa perspectiva, há de se considerar uma segunda questão, que é a legislação de proteção de dados, a qual exige consentimento para a finalidade específica de utilização. Logo, correções desse tipo exigem cautelas extras.

No caso da Amazon, foi adotada essa providência, no entanto não há garantias que o sistema não volte a cometer falhas, razão pela qual é interessante que os sistemas passem constantemente por auditorias voltadas a identificação de violações de direitos.


Milena Mendes Grado é advogada, sócia do Vilela Coelho Propriedade Intelectual. Formada pela Pontifícia Universidade Católica de São Paulo. Pós-graduada em Propriedade Intelectual pela Fundação Getúlio Vargas – FGV, Direito Eleitoral pelo Instituto Brasiliense de Direito Público e em Direito Processual Civil pela FADISP. Cursou, ainda, Extensão Universitária em Internet e Sociedade: Tecnologias e Políticas de Controle na Harvard Extension School. Certificada pela International Association of Privacy Professionals – IAPP/CIPP-US.