PUBLICIDADE
Topo

Inteligência Artificial que 'pinta retratos' revela viés racial

Inteligência artificial "artista" embranqueceu a atriz Taís Araújo e a cantora Lizzo - Reprodução/AI Gahaku
Inteligência artificial "artista" embranqueceu a atriz Taís Araújo e a cantora Lizzo Imagem: Reprodução/AI Gahaku

Marie Declercq

Do TAB

15/04/2020 04h00

Com grande parte das pessoas trancadas em casa em quarentena para evitar o contágio da covid-19, o site AI Gahaku virou um passatempo engraçadinho. A ideia é subir uma selfie e esperar que a IA (inteligência artificial) "pinte" sua foto em diversos estilos da história da arte. No entanto, alguns internautas alertaram que Gahaku (que significa "grande artista" em japonês) modifica drasticamente os rostos de pessoas que não são brancas, deixando-as com traços mais "europeus".

Alguns usuários do Twitter postaram o "quadro" pintando pela IA questionando por que saíram brancas ou com feições europeias, e testamos a IA artista com fotos de celebridades para ver o resultado final. Todas saíram brancas ou borradas, como se Gahaku não reconhecesse a face apresentada.

O problema do site japonês não é novidade — e é conhecido como "racismo algorítmico" por pesquisadores da área. No ano passado, o site AI Portrait Ars trazia a mesma proposta de recriar um retrato como pintura, mas usuários asiáticos e negros logo notaram que o software deformava seus rostos e os fazia parecer mais brancos. Criado por um pesquisador do Laboratório de IA do MIT-IBM Watson, o site foi tirado do ar. Segundo o laboratório, isso aconteceu por ser apenas um experimento, e que o problema não era da tecnologia em si, mas dos exemplos disponíveis no dataset (conjunto de dados) usado para ensinar a máquina a pintar os quadros. Em resumo, a IA pintava daquela forma por conta da menor quantidade de retratos de não brancos na história da arte. No caso do site criado pelo laboratório do MIT, foi usado um conjunto com mais de 15 mil pinturas do período renascentista da Europa ocidental.

Erro humano

Datasets são informações tabuladas, reunidas especialmente para a programação de IAs, como softwares de reconhecimento facial. No caso das imagens, o maior dataset do mundo é o ImageNet, criado em 2009 pela pesquisadora Fei Ling-Ling, em que milhões de imagens são classificadas por palavras-chave. O problema começa aí. Quem determina essas classificações são seres humanos, que trazem consigo uma bagagem de vieses e preconceitos que refletem a desigualdade social. Outro serviço, o Amazon Mechanical Turk, contrata pessoas para executar funções relacionadas à tecnologia que ainda podem ser executadas com mais eficiência por humanos, sendo uma delas a curadoria e classificação de imagens. Além das péssimas condições de trabalho reportadas pelos contratados, também foram detectados também problemas de racismo na classificação das imagens.

No caso da ImageNet, o racismo tecnológico foi escancarado em 2019 pelo ImageNet Roulette, em que o usuário publicava sua fotografia e conferia as classificações atribuídas à sua imagem. Uma mulher branca recebia classificações como "mulher bonita", enquanto pessoas negras e de outras etnias recebiam classificações racistas como "negro", "black" e termos parecidos. A repercussão fez com que a ImageNet retirasse mais de 600 mil imagens de seu gigantesco banco de dados.

Por mais que a tecnologia seja vista por alguns como um grande equalizador na sociedade — por supostamente não trazer consigo preconceitos e desigualdades — ela é desenvolvida por seres humanos e, assim, sempre refletirá nossos vieses sociais, como o racismo e o machismo. Em um caso bastante emblemático dos anos 1970, filmes coloridos eram calibrados para deixar peles brancas mais bonitas. A mesma coisa se repetiu em 2018, quando a cientista e pesquisadora do MIT Joy Adowaa Buolamwini analisou programas de reconhecimento facial da IBM Watson, da Microsoft e da Face++ e descobriu que a margem de erro era sempre maior para mulheres negras. O trabalho de Buolamwini foi emblemático ao revelar problemas de diversidade nessas tecnologias e deu origem à Algorithmic Justice League, uma organização criada para questionar e combater o viés racista presente muitas vezes na fase de desenvolvimento de um software

Isso não significa que as IAs são malignas. Falta um maior cuidado na curadoria e uma disposição mais consciente em aumentar a diversidade nos datasets. "O dataset precisa ter exemplos, nesse caso, muitos exemplos de pessoas negras — especialmente mulheres. A IA comete esse tipo de erro por ter sido treinada com muitos exemplos de rostos de homens brancos. A discussão é essa. Você precisa tomar uma decisão muito consciente para rever esse conjunto de dados", explica ao TAB Sergio Venancio, artista, programador e professor.

No caso do Gahaku, Venancio diz que a falha em reconhecer e retratar corretamente pessoas que não são brancas se deve ao dataset usado e também à falta de variedade de rostos não europeus na arte da Europa ocidental. Há, no entanto, pesquisas extensas mostrando que a pintura renascentista não retratou apenas europeus, e que há diversos retratos de pessoas negras produzidos nesse período. Eles apenas não são muito conhecidos pelo público. O esforço, portanto, é trazer esses exemplos à tona para melhorar a curadoria e, nos casos em que haja poucos exemplos, buscar projetos que questionem a falta de representação das mulheres negras na arte ocidental.

"No caso da história da arte — em que as proporções de gênero, cor de pele, etnia, todas essas questões de diversidade estão bem desbalanceadas —, por mais que você pegue alguns exemplos mais diversos e dê para uma IA, o dataset continuaria desequilibrado. Essa revisão da própria história da arte é proposta por alguns artistas, que estão recriando clássicos da pintura renascentista colocando mulheres negras no lugar de homens ricos e divindades", diz Venancio.

O "embranquecimento" automático no site AI Gahaku já foi percebido por Sato Neet, programadora que levou um mês para criar o aplicativo. "Realmente confirmamos que alguns dos resultados da artista estão tendenciosos. Vamos usar uma variedade maior de dados para a AI aprender melhor, e assim aumentar a diversidade nos resultados", explicou Neet ao TAB.