Quando quis agilizar o processo de seleção de novos alunos, a tradicional faculdade britânica de medicina St. George usou um software para definir quem deveria ser entrevistado. Ao reproduzir a forma como os funcionários faziam essa escolha, o programa eliminou, de cara, 60 de 2.000 candidatos. Só por causa do sexo ou origem racial, numa dedução baseada em sobrenome e local de nascimento. Um estudo sobre o caso foi publicado em 1988, mas, 25 anos depois, outra pesquisa apontou que esse tipo de discriminação segue firme. O exemplo recente envolve o buscador do Google: ao digitar nomes comuns entre negros dos EUA, a chance de os anúncios automáticos oferecerem checagem de antecedentes criminais pode aumentar 25%. Para piorar, com a pergunta “arrested?” (detido?) logo após a palavra procurada.
Casos como esses escancaram que a tecnologia tem reproduzido comportamentos preconceituosos dos quais a maioria diz não se orgulhar. Já são inúmeras as provas de como essas ferramentas estão cada vez melhores em imitar, também, o nosso pior lado. Quando se baseiam em nomes para segregar pessoas, por exemplo, os softwares mostram que qualquer semelhança com a realidade não é mera coincidência. Um levantamento recente indica que, nos EUA, hóspedes com nomes comuns entre negros - como Aisha, Keisha, Tyrone e Leroy - têm 16% menos chances de sucesso no site Airbnb (com exceção dos nomes, os perfis usados nos testes eram idênticos). E aqui não dá para culpar a tecnologia: a decisão de aceitar ou recusar os pedidos de locação cabia somente aos proprietários dos imóveis.