NÃO ACREDITE NEM VENDO

Como o deepfake pode mudar a nossa relação com as notícias falsas

Quando Jair Bolsonaro se atrapalhou em um discurso em Dallas, nos Estados Unidos, a internet encontrou ali material fértil para criar memes. O presidente confundiu seu próprio slogan e acabou soltando um "Brasil e Estados Unidos acima de tudo, Brasil acima de todos".

Foi aí que viralizou um vídeo em que ele aparece vestido como Chapolin dizendo: "Meu muito obrigado a todos, acima de tudo os novaiorquines. O Brasil acima de sempre... de todos". Trata-se de uma montagem criada por Bruno Sartori, 30, usando o método do deepfake, uma técnica que usa inteligência artificial para fazer parecer que alguém disse ou fez algo que nunca fez. Essa manipulação permite trocar rostos, mudar expressões faciais e até mesmo criar áudios falsos.

No caso brasileiro, o vídeo não deixa dúvida de que é uma piada. Mas você já deve ter visto alguns exemplos muito realistas: Barack Obama chamando Donald Trump de "um idiota total e completo" e Mark Zuckerberg dizendo coisas muito estranhas sobre o Facebook.

De 300 seguidores, Sartori passou a 30 mil com uma série de paródias cujos principais alvos são Bolsonaro e o ministro Sérgio Moro. "É uma forma de me manifestar em relação ao governo", comenta. Tudo começou no fórum Reddit, quando viu um usuário disponibilizando uma biblioteca de códigos na linguagem Python para criação de deepfakes. Sartori, que já trabalhava com edição de vídeo, estudou as dicas, aprendeu com tentativa e erro e passou a criar seu material.

Por enquanto, o processo é trabalhoso e exige entendimento de programação, além de hardware potente. No futuro, possivelmente a criação de fakes realistas será mais simples e o risco está no uso da técnica para divulgação das notícias falsas. "Quando se trata de um deepfake envolvendo vídeo, nós somos treinados a acreditar na evidência", diz Carlos Affonso, diretor do ITS (Instituto de Tecnologia e Sociedade. "A verificação desse conteúdo se torna mais difícil para o usuário leigo. Precisa de uma perícia técnica para dizer que o vídeo foi alterado."

Se por um lado os vídeos manipulados ainda precisam ser aperfeiçoados para parecem mais naturais, a edição de áudio já está um passo à frente. Em novembro de 2016, a Adobe apresentou o VoCo, uma ferramenta que permite edição de som da mesma forma que seu irmão, o Photoshop, permite manipulação de imagens.

Para criar frases completamente novas, o software precisa de ao menos 20 minutos de áudio da pessoa. Com 40 minutos, o resultado é bem mais refinado. Por enquanto, não há previsão de lançamento, mas outros softwares já estão disponíveis. No episódio "The Future of Fakes", da série "Follow This" produzida pelo Buzzfeed em parceria com a Netflix, o repórter Charlie Warzel usa o site Lyrebird para criar algumas frases com sua própria voz. Ele alimenta o software gravando áudios de si mesmo, depois digita novas frases para o site ler com sua voz. Funciona tão bem que Warzel consegue enganar a própria mãe. Ele liga para ela e tem uma conversa curta apenas com frases digitadas no computador e lidas pelo software. Parece coisa de ficção, mas é bem real.

Você pode até nunca ter recebido um deepfake em áudio, mas só o fato de a tecnologia existir pode causar desconfiança. Você se lembra daquela gravação de 2017 que mostra o então candidato à presidência dos Estados Unidos Donald Trump dizendo que ficava automaticamente atraído por mulheres bonitas, e que era só "pegá-las pelas partes íntimas" (ok, ele usou uma outra palavra aqui, mas não vamos repeti-la). Se as deepfakes fossem mais comuns, ele poderia facilmente afirmar ter sido vítima de manipulação.

Se a ferramenta de áudio já é assustadora, imagine quando existir algo assim para vídeo também? Bom, sem querer assustar, mas isso meio que já existe. Um projeto que reúne pesquisadores da Universidade de Stanford, do Max Planck Institute for Informatics, da Universidade de Princeton e da própria Adobe Research deu grandes passos nesse sentido.

Eles desenvolveram um algoritmo que permite editar a fala de uma pessoa mexendo na transcrição em texto do vídeo. Só é possível manipular imagens com um enquadramento determinado - em que a pessoa apareça próxima, dos ombros para cima - e é preciso alimentar o sistema com pelo menos 40 minutos de vídeo original. Além disso, o áudio precisa ser trabalhado separadamente, em programas como o VoCo, por exemplo.

O objetivo dessas tecnologias costuma ser ajudar editores, que poderiam consertar ou simplesmente refazer partes de áudios ou vídeos já gravados sem precisar regravar com o locutor ou atores originais. Essa, pelo menos, é a justificativa dos criadores desses dois softwares. Mas as possibilidades de criação de fake news assustaram. Uma pessoa não precisa nem ser famosa para ser alvo de manipulação de áudio. Com a internet, muitos de nós temos vários minutos (quem sabe até horas) de nossas vozes disponíveis em vídeos nas redes sociais. Qualquer um poderia ser alvo de um fake.

Enquanto essas ferramentas são testadas, estudiosos das fake news explicam que é preciso desenvolver, concomitantemente, formas de rastrear a manipulação. Um exemplo seria uma "etiqueta" nos metadados do arquivo, indicando que ele não é original.

No dia 23 de outubro de 2018, cinco dias antes do segundo turno das eleições, o então candidato ao governo de São Paulo João Doria afirmou que havia sido vítima de fake news e montagem após um vídeo viralizar mostrando uma orgia da qual ele supostamente teria participado.

"A própria controvérsia mostra o potencial do deepfake. O impacto disso no cenário político pode vir a ser grande", observa João Guilherme Bastos dos Santos, pesquisador do Grupo de Pesquisa em Tecnologias (GPT) da Comunicação e Política da UERJ (Universidade Estadual do Rio de Janeiro).

Para Doria, o desmentido do vídeo demandou atuação de especialistas, evidenciando os desafios do suposto deepfake. Peritos contratados pelo então candidato e pela revista Veja São Paulo emitiram laudos de que as imagens foram mesmo manipuladas. Outro laudo, no entanto, não encontrou indícios de montagem.

Na mesma eleição, circulou nas redes sociais e no WhatsApp uma foto da então candidata à vice-Presidência Manuela d'Ávila com uma camiseta onde se lia "Jesus é travesti". No Twitter, ela postou a foto original e a estampa verdadeira: "Rebele-se". "É muito mais fácil criar e espalhar a notícia falsa do que conseguir recuperar a imagem", afirma Manuela.

No fim de 2018, Manuela lançou a campanha "E se fosse você?" para provocar reflexão e ação contra fake news. Empatia é a palavra de ordem, diz Manuela. "A ideia de não se colocar no lugar do outro é algo muito presente na distribuição das fake news. Por isso tivemos a ideia de desenvolver um 'comando primário mental', que poderia ser um primeiro nível nessa educação digital", relata. "Que a pessoa pense: e se fosse comigo? E se fosse eu acusada de ter matado alguém, violentado alguém?".

Como será o mundo em que nem mesmo um vídeo poderá provar que algo de fato ocorreu sem culpar a tecnologia pelas fake news? É preciso identificar a origem do problema e educar a população. Principalmente as gerações mais novas.

O primeiro passo é entender de onde vêm as notícias falsas e como elas são estruturadas, para em seguida compreender por que elas convencem tanta gente e se espalham mais rápido do que as verdadeiras.

Aqui no Brasil, alguns dos maiores esforços nesse sentido são do GPT da UERJ, do qual Santos faz parte. Eles estudam a disseminação de notícias falsas desde 2012 e, em 2017, desenvolveram um método para monitorar esse fenômeno nas eleições de 2018. Os pesquisadores acompanharam por meses alguns dos maiores grupos de política em aplicativos de mensagem, como o WhatsApp, antes das eleições.

Um dos pontos principais foi constatar que as pessoas, e não os robôs, são os responsáveis pela distribuição de fake news online. E pessoas estão sujeitas a emoções - sentem a urgência de compartilhar informações que mexem com elas, principalmente se vierem de alguém próximo. "O que chega no WhatsApp não tem fonte original, então o critério [de confiabilidade] é o que está escrito ou quem te passou", explica o pesquisador.

Ou seja, se você confia no seu irmão, na sua prima ou no seu amigo que te mandou aquela mensagem, dificilmente vai duvidar do conteúdo dela. "A geração mais velha confiava muito no que as pessoas falavam, era o boca a boca. 'Mas foi o fulano que disse. Fulano não ia mentir'", diz Thiago Pardo, professor e pesquisador do ICMC (Instituto de Ciências Matemáticas e de Computação) da USP.

Pardo faz parte de outra equipe brasileira que trabalha a fundo no combate às notícias falsas. Ele e outros pesquisadores do ICMC e da Universidade Federal de São Carlos (UFSCar) desenvolveram, em 2018, um detector de fake news. O grupo ensinou o sistema alimentando-o com 3.600 notícias falsas e 3.600 notícias verdadeiras que as desmentiam, para comparação.

"O que o software olha hoje são as palavras usadas, pontuação do texto, tamanho de frase, número de classes gramaticais (substantivos, adjetivos, verbos), quantas pausas há no texto, vírgula, ponto, o grau de emotividade, o quanto apela para a emoção da pessoa...", lista Pardo. Combinando todas essas características, a máquina consegue aprender um padrão e detectar com 95% de eficácia se um texto é falso, garante o pesquisador.

Em uma sala de aula com três professores no colégio particular Dante Alighieri, em São Paulo, alunos de 13 a 15 anos sentam-se em círculo e observam atentamente o quadro interativo. Na tela, uma notícia de jornal sobre o encontro entre Donald Trump, presidente dos Estados Unidos, e Kim Jong-un, ditador norte-coreano, em Hanói, no Vietnã. "Promessa de acordo", diz o título, ao lado de uma foto em que os chefes de Estado parecem chegar para se cumprimentar.

Os estudantes analisam as posturas e expressões de Trump e Kim, debatem a escolha do veículo por uma foto em que eles estão quase se cumprimentando, mas sem dar as mãos, e dissecam o texto em busca de significados menos óbvios - a palavra "promessa" traz uma sensação de esperança, opina uma aluna.

A atividade faz parte da aula extracurricular de análise de mídia, disponível para alunos do 8º e 9º anos do ensino fundamental e do 1º ano do ensino médio. É nesse espaço que os adolescentes debatem com mais profundidade as fake news, discutidas também durante as aulas regulares.

Além do Dante, outras instituições de ensino particulares e públicas de São Paulo começaram a trazer o tema para dentro da sala, de olho nas novas formas que os jovens vêm recebendo e consumindo informação: redes sociais, WhatsApp... Afinal, quem nunca recebeu uma fake news por lá de vez em quando?

Avós, pais, tios? Quando as notícias falsas chegam aos smartphones dos adolescentes, elas geralmente vêm de alguém da família. "Minhas avós quase nunca entram no Facebook, mas quando entram, vão compartilhando tudo que veem pela frente", conta Eduarda de Souza Alcântara, 18, aluna do 3º ano do ensino médio na Escola Estadual Alexandre Von Humboldt, em São Paulo.

Os jovens se consideram espertos na hora de identificar uma informação falsa, mas isso não quer dizer que sejam imunes às fake news, reconhece Samantha Sabino Pamplona Souza, 16, colega de turma de Eduarda: "Por mais que a gente seja mais conectado à internet, a maioria não gosta de ler, não gosta de estudar e pesquisar."

Um estudo do departamento de educação da Universidade de Stanford demonstrou que crianças e jovens têm dificuldade em julgar a credibilidade das informações que encontram online. Além disso, geralmente não conseguem apontar se uma fonte de informação é confiável ou não, seja no Facebook, no Twitter, em resultados do Google, blogs ou mesmo em fotos. A pesquisa foi realizada em 2016 nos Estados Unidos, mas reflete o que os educadores ainda percebem em sala de aula no Brasil.

Quando se trata de deepfake, então, ainda temos muito a ensinar (e aprender). Apenas dois dos dez alunos entrevistados pelo TAB sabiam que a manipulação avançada de vídeo poderia ser usada na produção de notícias falsas. "A gente acha que, por serem nativos digitais, eles sabem tudo. Não. Eles têm mais facilidade por estarem inseridos, mas não têm senso crítico em relação a isso", explica Verônica Cannatá, coordenadora de tecnologia educacional do Dante. "Fake news é uma responsabilidade social. Tem que estar na pauta da escola, mas tem também que estar na pauta de um projeto de país."

Durante o ano de eleições, proliferaram iniciativas de combate a notícias falsas, incluindo algumas focadas no público jovem, como o "Fake ou News", parceria entre o canal Futura e a Agência Lupa, e o "Vaza, Falsiane!", idealizado pelos jornalistas e professores Ivan Paganotti, Leonardo Sakamoto e Rodrigo Ratier. Fora do período eleitoral, restam ações pontuais em escolas.

"Eu acredito que há uma certa vulnerabilidade ainda, porque os adolescentes são muito dependentes das redes sociais em alguns momentos", diz Rodrigo de Carvalho Rodrigues, professor de filosofia que organizou aulas sobre notícias falsas na Alexandre Von Humboldt. "Nosso papel é procurar dar ferramentas, dar instrumentos para que eles possam identificar até onde alguma coisa pode ser compartilhada, se isso oferece um risco para alguém, se isso vai prejudicar alguém, para que eles pensem um pouco mais nas consequências das ações deles."

Não tem fórmula mágica, lembra Thiago Pardo, do ICMC-USP: "Quando o deepfake chegar em massa, com a imagem da pessoa falando algo que não disse, vamos precisar criar o hábito de fazer o que os jornalistas fazem: checagem de fatos. Não tem como fugir disso."

Topo