PUBLICIDADE

Topo

Comportamento


Twitter x Mastodon: mudar de rede social resolve discurso de ódio?

Falta de moderação no Twitter para conteúdos nocivos inspira migração de usuários para outra rede social - Kon Karampelas/Unsplash
Falta de moderação no Twitter para conteúdos nocivos inspira migração de usuários para outra rede social Imagem: Kon Karampelas/Unsplash

Marie Declercq

Do TAB

10/03/2020 04h00

Quando as redes sociais começaram a se popularizar, havia algo de positivo e esperançoso em facilitar o contato entre usuários do mundo inteiro e trocar informações. Mais de uma década depois, plataformas como Facebook, Twitter e Instagram são realmente grandes mediadoras de comunicação, mas ao mesmo tempo são administradas por empresas particulares que querem lucrar, como qualquer outra companhia. Desde 2016, com a eleição presidencial dos EUA que levou Donald Trump à vitória, esses espaços foram centrais para manipulação da opinião pública, destruição de reputações e disseminação de desinformação e conteúdo danoso.

No começo dos anos 2010, a importância das redes sociais para o debate político veio à tona com a Primavera Árabe, uma série de protestos antigoverno iniciada na Tunísia em 2010 que se espalhou para cinco países: Síria, Egito, Iêmen, Líbia e Bahrain. Impossibilitados de contar com a mídia tradicional para veicular seus protestos, ativistas recorreram às redes sociais para noticiar ao mundo o que estava acontecendo nos seus países. No Egito e na Tunísia, em especial, o Facebook e o Twitter foram essenciais para convocações de protestos. Os governos, impossibilitados de censurar as publicações nas redes sociais como faziam com jornais e televisão, bloquearam totalmente o acesso ao Facebook e ao Twitter, o que acabou se mostrando um tiro no pé.

Por não responderem aos governos autoritários, tanto o Twitter quanto o Facebook se tornaram espaços supostamente livres e seguros, em que todos podem expressar opiniões sem temer represálias. Era o sonho da liberdade de expressão. Durou até a segunda metade da década de 2010. Depois disso, o uso intenso das redes sociais influenciou de forma decisiva o debate político dos EUA — e teve um papel crucial na ebulição da política brasileira até as eleições presidenciais de 2018. As redes sociais deixaram de ser apenas instrumentos de comunicação para se tornar, também, armas para disputar espaços e narrativas na sociedade.

Nos últimos anos, queixas sobre conteúdos ofensivos nessas plataformas parecem só crescer. Apesar de estabelecerem limites para o comportamentos dos usuários e para o que pode ser publicado nas redes, empresas mais populares como Facebook e Twitter nem sempre conseguem agir da forma ideal em casos específicos — seja usando a moderação humana ou por algoritmos nesse controle. Nos últimos anos, em busca de um ambiente mais saudável, um pequeno número de pessoas têm migrado para plataformas menos conhecidas. Seria essa uma boa solução?

Um mar de opiniões

Todos os dias, ao redor do mundo, milhões de publicações boas ou ruins são feitas em redes sociais. Para dar conta desse oceano de conteúdo, as plataformas investem em inteligência artificial para analisar os posts e decidir se algum deles viola as regras de conduta. Uma publicação passa por análise de duas formas: provocada (ou seja: quando um ou vários usuários denunciam um conteúdo) ou proativa, quando algoritmos reconhecem que algo está violando as regras da plataforma e retiram o conteúdo do ar ou enviam para a análise de um moderador humano.

"Seria inviável — além de indesejável, do ponto de vista da liberdade de expressão — que o compartilhamento de conteúdo nas plataformas fosse monitorado de maneira ativa pelos moderadores. O que as grandes plataformas têm feito para permitir a identificação rápida de certos tipos de conteúdo, como imagens e vídeos de caráter sexual ou de violência gráfica, é lançar mão de algoritmos, a depender do conteúdo a ser processado, para analisar ativamente a postagem desse material com o objetivo de removê-lo mais rapidamente", explica Thiago Dias Oliva, coordenador de pesquisa do InternetLab.

A automatização facilita muitos casos, mas ainda falha em entender contextos ou reconhecer a motivação do usuário ao publicar determinado conteúdo. Há muitas explicações para o Twitter ser mais relapso que o Facebook em banir publicações que violam suas regras. Vão desde o fato de a plataforma ter menos funcionários e menos dinheiro do que a concorrente ao medo de uma decisão corporativa afetar o debate público, e passa também pelos interesses econômicos da própria empresa, quando se trata de algo que envolve anúncios na rede social. No caso da moderação, a resposta é ainda mais simples: moderar não é fácil, e o resultado nem sempre vai agradar a todo mundo.

"Por algum tempo o Twitter assumiu uma postura pública no sentido de intervir menos nos conteúdos que circulavam na plataforma. No entanto essa postura mudou já faz algum tempo, e a plataforma se comprometeu a combater o assédio e outros tipos de comportamentos de seus usuários," explica Thiago Oliva Dias, coordenador de pesquisa do InternetLab.

Os esforços do Twitter ainda são tímidos, pois a plataforma ainda hospeda muitos tuítes e perfis que espalham sem melindres discursos nazistas e ataques frontais a minorias. A plataforma chegou a anunciar que será mais ativa em banir conteúdos que violam as regras da comunidade que foram estabelecidas pela própria empresa.

Em 2019, o Twitter tirou do ar milhares de publicações marcadas como intolerância religiosa, e em 2018 suspendeu alguns perfis de figuras responsáveis por disseminação de conteúdo de ódio. Mas a plataforma, assim como as concorrentes, esbarra nas próprias regras que criou para supostamente proporcionar um ambiente seguro. Como forma de barrar discurso terrorista na plataforma, por exemplo, o Twitter passou a banir qualquer usuário que fala o idioma árabe de forma quase aleatória, meramente por falar algum palavrão ou criticar alguém.

"Ter mais conteúdos removidos não é sinônimo de moderação bem-sucedida, muito pelo contrário. Pode significar a remoção de conteúdos legítimos, de valor para o debate sobre questões de interesse público. É importante destacar, além disso, que definir os contornos de um 'conteúdo nocivo' é muito complexo. Pessoas de diferentes contextos socioculturais terão, inevitavelmente, opiniões distintas em casos concretos", diz Oliva.

Ódio à brasileira

Sendo o Brasil um dos países mais ligados às redes sociais, é natural que muito do que se passa no cotidiano do brasileiro nasça de uma publicação no Facebook ou um tuíte. Pode-se afirmar que as eleições de 2018 foram mais disputadas no campo virtual do que nos tradicionais debates televisivos ou comícios. Um reflexo disso está no presidente Jair Bolsonaro utilizando as redes sociais para conversar com seu eleitorado, antes e depois de ser eleito. Toda sexta-feira ele faz uma transmissão ao vivo no Facebook e usa seu Twitter para anunciar projetos ou criticar opositores. Seus apoiadores, outros políticos, membros do governo e críticos também recorrem às redes sociais para se envolverem no debate.

O lado sombrio disso é todo o conteúdo nocivo que vem à tona com essas interações. O Twitter, em especial, se tornou um palco de horrores que vão desde ataques direcionados a jornalistas até tentativas de difamação, notícias falsas e postagens de conteúdo explícito. Mesmo se dispondo a proteger jornalistas e tomar providências sobre tuítes que violam suas regras de conduta, muitos usuários acreditam que a plataforma ainda se recusa em agir em relação a alguns casos.

Recentemente, a jornalista Patrícia Campos Mello, da Folha de S.Paulo, foi atacada por milhares de pessoas nas redes sociais depois que Hans River do Nascimento, ex-funcionário da Yacows (empresa envolvida nos disparos no WhatsApp feitos durante a campanha presidencial de 2018), declarou na CPMI das Fake News que a repórter "se insinuou" para conseguir informações jornalísticas. Grande parte dos tuítes ainda estão no ar, apesar de diversas denúncias e de se enquadrarem como uma forma de assédio direcionado segundo as próprios regras do Twitter.

Em nota enviada ao TAB, o Twitter alegou que no "caso específico, foram tomadas medidas sobre Tweets e contas que violarem essas Regras, e novas denúncias seguem em processo de análise."

"O Twitter condena comportamentos que intimidem ou tentem silenciar vozes, e nosso trabalho para evitar que isso aconteça está em constante aprimoramento. Temos avançado em algumas frentes, mas sabemos que ainda há muito a ser feito," diz a nota.

O jeito é abandonar o barco?

A moderação de conteúdo é tão questionada que nenhuma ideologia parece estar feliz com ela. Em 2016 foi lançado o Gab, rede social com interface semelhante ao Twitter, prometendo um espaço sem regras, priorizando a liberdade de expressão e oferecendo um "contraponto" às regras de conduta das empresas tradicionais, que baniram diversas personalidades da extrema-direita dos EUA, como Alex Jones e Richard B. Spencer. Foi abraçado rapidamente por simpatizantes dessa ideologia e, segundo a própria empresa, já acumulou cerca de 1 milhão de cadastrados até junho de 2019.

O site realmente é conhecido por concentrar publicações antissemitas, difamatórias, racistas e misóginas. Mas por ser um espaço relativamente isolado, dificilmente contamina a pauta do dia no Twitter ou Facebook. São poucos os que realmente abandonaram as maiores plataformas para se dedicarem exclusivamente a postar no Gab.

Na mesma época do surgimento do Gab, outro serviço foi apresentado com a intenção de trazer uma alternativa fora das redes tradicionais. O Mastodon, apelidado por alguns de "Twitter da esquerda", não é uma rede social única, mas uma rede descentralizada que permite a hospedagem de diversas redes sociais, com diferentes regras e finalidades.

A ideia do Mastodon é que qualquer pessoa pode montar sua própria rede social, da forma que quiser, com as regras que bem entender. Por isso se autodenomina um serviço descentralizado e federativo. Descentralizado porque cada uma dessas redes sociais, conhecidas como instâncias, estão espalhadas em servidores particulares; federalizada porque cada instância possui suas próprias regras, mas pode se comunicar com as outras. Como o foco do Mastodon é evitar o discurso de ódio, foi vendido como uma rede social para ativistas dos direitos humanos e livre de usuários simpatizantes do nazismo, por exemplo.

Mas não é bem assim. "Os defensores do Mastodon não têm como afirmar que não tem nazista por lá", afirma Yasodara Córdova, pesquisadora e blogueira do TAB. "Ninguém tem o mapa das instâncias e algumas delas são privadas. É um protocolo parecido aos grupos de Whatsapp."

O Mastodon parece um contraponto do Gab e do Twitter, mas foi graças à plataforma que a rede social da extrema-direita sobreviveu após o aplicativo ser banido da Apple Store e Google Play. A situação foi uma sinuca de bico para seu criador, visto que a ideia do Mastodon é priorizar a liberdade de expressão e ao mesmo tempo banir discursos de ódio. O jeito foi bloquear o Gab de poder se comunicar com outras instâncias e também retirá-lo dos diretórios oficiais. O Gab, de certa forma, foi isolado mais uma vez.

Não só a questão do Gab bota em cheque o grande espaço livre que o Mastodon promete, como também a impossibilidade de confiar na moderação em cada instância. Embora o Mastodon estabeleça regras básicas como restrição de racismo, sexismo, homofobia e transfobia, não há garantia de que nada disso esteja acontecendo. Seria como acreditar que o mesmo não acontece em grupos de WhatsApp.

"A descentralização não garante que a moderação vai ser melhor. Inclusive, é bem o contrário. Várias redes que são descentralizadas e federadas possuem uma moderação pior do que do Twitter", diz Córdoba. "O próprio Mastodon, dependendo da instância, tem muito mais pornografia e conteúdo que beira o ilícito do que o próprio Twitter — que investiu pesado para banir esse conteúdo."

Um dos incentivos por trás do Mastodon também é ocupar um espaço onde supostamente não há interferência de anúncios por pertencer a uma empresa que precisa lucrar com tudo aquilo. Porém, não há garantias de que ele nos livrará de conteúdos que não gostamos. No fim dos contas, o que vemos nas redes sociais são também reflexo do que somos na sociedade. E muitas vezes, isso não é nada agradável.

Comportamento