A cena resgata aquele pitoresco programa infantil de duas décadas atrás. Sobre os quatro teletubbies, o sol com face humana nasce e dá o recado do dia: "Urgente! A NASA acaba de confirmar que a terra está numa inclinação perfeita para você levantar dessa cama e deixar de ser inútil. Então acorda travesti, levanta sapatão". E finaliza com um gritinho agudo: "Bom dia gaaaaay".
Desde agosto passado, o fluminense Mateus Scalabrini, de 22 anos, posta diariamente nos stories do perfil @papodecrioulo uma mensagem motivacional para ao público LGBTQ+, utilizando o filtro do "Teletubbies" e a linguagem desbocada e irônica usada pela comunidade, onde termos considerados pejorativos são ressignificados.
"São palavras que sempre foram usadas contra nós, mas queria poder usá-las com um tom de incentivo, algo que a gente nunca ouviu", ele explica. "Foi o que fez as pessoas mais se identificarem com o conteúdo."
Na semana passada, ele aproveitou o pós-Carnaval para elencar as ousadias dos gays durante a festa: "E agora está com medo do coronavírus? Te manca, viadinho, não tem nada que resista ao seu poder", diz. O post viralizou rapidamente no Twitter e comunidades como o popular LDRV. Mateus ganhou em poucas horas 3 mil seguidores. No dia seguinte, entretanto, muitos posts e stories foram deletados pela plataforma por uso de "símbolos ou discurso de ódio" — incluindo muitos de seus bom dia bem-humorados.
"Todos os vídeos que tinham a palavra 'viadinho' foram removidos. Nunca tinha sido censurado, mas quando repercutiu, o Instagram começou a cortar", diz.
O TAB entrou em contato com o Instagram para entender como funciona a varredura de publicações ofensivas e saber quais os símbolos identificados nas postagens de Mateus. A plataforma não comentou o caso e emitiu apenas uma nota, em que diz se esforçar "para escrever políticas que equilibrem liberdade de expressão e a segurança dentro da plataforma".
"Mais de um bilhão de pessoas no mundo inteiro usa o Instagram todos os meses e encontrar esse equilíbrio sempre será desafiador", diz a nota.
A resposta é um reflexo da pressão que plataformas como Facebook, Twitter, YouTube e o próprio Instagram sofrem para moderar e detectar conteúdo considerado discurso de ódio, que prolifera nas redes todos os dias.
Com o volume diário de postagens beirando o inimaginável, essas empresas passaram a usar inteligência artificial para detectar o nível de "toxicidade" dos conteúdos. "O problema é que, aparentemente em muitos casos, essa ferramenta está sendo usada diretamente para remover conteúdo. Só não sabemos quanto, porque as plataformas não são muito transparentes. Mas a gente tem relatos", diz Thiago Dias Oliva, coordenador da área de pesquisas em liberdade de expressão do InternetLab.
o insta coisou minha conta lá pq ?violava as diretrizes?. tem uns stories que nem estão mais disponiveis que eu chamo os amigos de tipo ?viado?, ?bixa? e os instagram ta apagando tudo. tô bloqueado lá até 12h. mas voltarei mais baixo ainda. aguardem :)
Oliva é um dos autores de uma pesquisa que investiga o impacto da tecnologia no conteúdo produzido pela - e para — comunidade LGBTQ+. Para isso, ele utilizou postagens no Twitter de drag queens conhecidas do popular reality show norte-americano "RuPaul's Drag Race", que usam, com frequência, linguagem que pode ser considerada dura ou desrespeitosa, ao construir o seu discurso.
"É difícil colocar o conteúdo em caixinhas. Nosso estudo nasce da ideia de mostrar e ver o contexto social, a função da linguagem para uma comunidade e repensar como essas ferramentas foram construídas e estão sendo aplicadas", explica.
No gráfico, as drag queens estão em azul, os supremacistas brancos, em vermelho. Michelle Obama está em verde e Donald Trump, em laranja
Imagem: INTERNETLABQuem é mais tóxico?
A pesquisa foi realizada com a ajuda da API Perspective, desenvolvida pela Jigsaw (do grupo Alphabet). A ferramenta de inteligência artificial foi criada para detectar conteúdo considerado tóxico -- o que, segundo a empresa, se enquadra "comentários rude, desrespeitoso ou não-razoável que provavelmente fará com que você abandone uma discussão".
Para comparar os resultados, foram coletados tuítes de outros usuários famosos, como a ex-primeira dama dos Estados Unidos Michelle Obama (com discurso considerado menos controverso ou "saudável") e o atual presidente Donald Trump e figuras da extrema-direita (para discursos extremamente controversos ou "muito tóxicos", segundo a base de dados da tecnologia). O resultado, ainda que focado no conteúdo produzido em inglês, mostra lacunas e interpretações enviesadas no conteúdo feito pela comunidade LGBTQ+.
Um número significativo de perfis de drag queens foi considerado mais tóxico que o perfil de Donald Trump e de supremacistas brancos, com nível de toxicidade entre 16,68% e 37,81%. No total, 3.925 postagens das performers tiveram seu potencial de toxicidade avaliado em 80% ou mais, apenas ao usarem hashtags e termos como "fag" (bicha), "sissy" (maricas) e "bitch" (puta), consideradas ofensivas, mas que desempenham papel relevante e positivo quando usadas dentro da comunidade. Outras bem mais comuns como "gay", "lésbica", "queer" e "travesti" também foram consideradas tóxicas, ainda que em menor grau.
Um tuíte da drag Mayhem Miller — que dizia em caixa alta "Eu sou negro, sou gay, sou homem, sou uma drag queen. Se isso não é o suficiente para você... gentilmente, dê o fora daqui" — chegou a atingir 95% de toxicidade. Já um post do youtuber de extrema-direta Stefan Molyneux, que sugere que algumas etnias tinham um cérebro menor, ficou na faixa dos 21%.
I AM BLACK. I AM GAY. I AM A MAN. I AM A DRAG QUEEN. If those are not enough for you...kindly, FUCK OFF!!!
"Percebemos que essas tecnologias ainda estão em estágio de desenvolvimento e não conseguem compreender o contexto, podendo acontecer distorções", avalia o pesquisador. "Isso tem muito a ver com a base de dados que a tecnologia usa. Obviamente, a palavra gay é neutra e positiva, mas fora da comunidade, aparece com uma conotação negativa no mundo. É como se a base de dados usada a considerasse preponderantemente negativa."
É difícil fazer análise sobre a efetividade da tecnologia nessa varredura, principalmente no Brasil, onde ainda não há pesquisas relacionadas ao assunto. "O que a gente sabe é que ela comete erros, não muito raros. E esses erros têm consequências", diz Oliva.
No longo prazo, com termos próprios da comunidade passando a ser "proibidos", isso pode moldar até a forma da comunidade se comunicar. "Se os canais usados hoje para transmitir as informações são esses, acaba se encontrando novos meios de transmitir aquela informação", observa o pesquisador.
Enquanto aguarda o retorno dos vídeos excluídos no Instagram, Mateus continua dando seu bom dia. Sem saber ao certo qual foi a palavra ofensiva usada, ele agora só escreve "v14d1nh0".
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.