Mulheres no pornô, homens na política: pesquisadora explica o 'deepfake'
Se você passar alguns minutos rolando o Instagram, vai perceber as mesmas poses para selfies, os mesmos filtros, as mesmas fotos de viagem, até as mesmas legendas e hashtags para marcar momentos inesquecíveis. O comportamento nas redes sociais está padronizado e há uma gama de pesquisadores debruçados sobre os efeitos dos algoritmos na formação do nosso olhar e do nosso comportamento.
Giselle Beiguelman, professora da FAU-USP (Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo) e artista, é uma dessas pesquisadoras. Em artigo publicado recentemente na ZUM, revista semestral do Instituto Moreira Salles sobre fotografia, Beiguelman escreve sobre o papel da inteligência artificial, especialmente deepfakes na arte, na política e seus efeitos sob o olhar. Em entrevista ao TAB, a professora demonstra preocupação com o que chama de "eugenia do olhar" e reflete sobre o futuro do mundo digital.
TAB: Você observa no artigo que o deepfake é feito com mulheres para pornografia e com homens para política. O que você acha desse recorte de gênero nesse uso?
Giselle Beiguelman: Primeiro, uma questão que transcende a inteligência artificial do deepfake é que a internet não é um espaço virtual. É um espaço real. É uma dimensão daquilo que nós somos. A internet não inventou o racismo, a pedofilia, o machismo. Ela é uma dimensão social de todas essas distorções e violências que ocorrem no cotidiano. Isso explica o machismo implícito nesses procedimentos. No caso dos deepfakes, como são imagens sintetizadas a partir de processos de aprendizagem de máquina, ele depende da incursão em grandes bancos de dados, grandes conjuntos de dados organizados, o que chamamos de "datasets", que são imagens que estão online organizadas a partir de consulados, embaixadas, governos, redes sociais, imprensa, artigos científicos. A grande maioria das fotos presentes nesses bancos é de celebridades. Os deepfakes, por responderem às dinâmicas sociais, têm uso muito recorrente na manipulação com fins de pornografia, onde as mulheres são vitimadas constantemente. Esse cruzamento entre celebridades, pornografia e machismo é um triângulo que envolve aspectos técnicos e aspectos de natureza social.
TAB: Quando a internet surgiu, havia um grande otimismo sobre seu uso. Ainda existe esse otimismo?
GB: Há dez anos, a Wired publicou: "A internet morreu". O artigo mostrava que a internet tinha morrido, não existia mais internet como nós entendíamos, um espaço de transformações de outra ordem social, porque a internet tinha sido tragada pelas grandes corporações. Não que algum dia a internet não estivesse ligada a corporações, mas, no momento em que a internet passa a se confundir com essa arquitetura de informação, que nós chamamos de web 2.0, ela, por um lado, se populariza e cresce muito — o que é bom. Mas, por outro lado, ela passa também a demandar a concentração em servidores de grande porte. Quem pode garantir o uso de milhares, milhões de pessoas simultaneamente, senão grandes empresas como Facebook, Google, Microsoft? A vida online passa a ser subordinada a esse repertório corporativo. Nesse ponto é que essas utopias da internet como um divisor de águas passam a ser relativizadas por um real que não havia sido previsto.
TAB: Você escreve no artigo: "As câmeras servem para mostrar e não para ver". Como a tecnologia subverteu o uso das câmeras?
GB: A câmera fotográfica, em princípio, não procura apenas mimetizar o aparato de visão humana, mas expandi-lo. É um dispositivo de enquadramento em captação, em emolduramento do mundo. A imagem digital, no momento em que ela passa a ser uma espécie de desdobramento do equipamento do celular, passa a ser um dispositivo não mais de captação, mas de projeção. Isso é uma mudança radical. A câmera não serve para captar, mas para projetar você nas redes sociais. Outra grande transformação é que cada vez mais a câmera digital é menos lente e mais inteligência artificial. Em vários momentos somos "salvos" pela câmera do celular, Ela corrige tudo no automático, porque elas aprenderam com outras câmeras que mandam imagens para a internet que o padrão é assim. "Me senti um Sebastião Salgado fazendo essa foto", mas é óbvio que você não é um Salgado. Só que as câmeras aprendem que você quer um filtro com aquelas cores. Mas uma foto não é só o tipo de tonalidade, é todo um conceito, enquadramento e até uma disputa política. O filtro chega próximo àquela dinâmica. A câmera do celular não é um orifício pelo qual você olha o mundo. É ela que te olha. É totalmente diferente. Isso causa muita paranoia. A inteligência artificial é a consagração do padrão.
TAB: Você também cita a pasteurização de fotos no Instagram. Por que todo mundo se parece?
GB: Nós ainda estamos no princípio deste processo. A minha hipótese é que isso pode implicar uma eugenia do olhar. Ou seja, nós enxergaremos o mundo por padrões. Nós estamos expressando o mundo a partir de visualidades e com um vocabulário cada vez menor. Todo mundo tem os mesmos gestos, demandas, as mesmas cores. As redes sociais precisam de padrões. Nós já vivemos numa sociedade onde os padrões implicam uma série de disputas e diferenças sociais, de gênero, raciais e que os algoritmos incorporam. São vários estudos que mostram que as câmeras de reconhecimento facial não são treinadas para reconhecer não-brancos. Não está no banco de dados, bate com um perfil "criminoso". O que a gente chama de "erro" é um treinamento da máquina. Mas tem um perigo de padronização do olhar. O olhar é cultural. Na medida em que elas passam a nos olhar mais do que nós olhamos por elas, que tipo de mundo enxergaremos? Se você sai do padrão, você sai da curva do darwinismo dos dados e você já não é mais ninguém. O perigo é a diferença não ter mais lugar.
TAB: Tem como fugir desse destino?
GB: Precisamos reocupar o espaço crítico nas redes sociais. Essa discussão sobre "a internet morreu" não é catastrófica, ela precisa ser feita. Que tipo de internet queremos? Que tipo de tecnologia queremos? Como os artistas estão reagindo a esse universo e se apropriando desse repertório de forma crítica? A questão é partirmos para uma ocupação a partir de um letramento digital. Nós já vivemos tempos em que o acesso à leitura era distribuído de acordo com a hierarquia social, de forma ainda mais rígida do que a de hoje. Mulheres não liam. Escravos não liam. O acesso à leitura foi uma transformação radical. Não acho que todos têm que ser programadores, mas temos que aprender a ler esse mundo de outras formas, e essa forma é um letramento digital.
TAB: A inteligência artificial pode redefinir o que é arte?
GB: Toda a cadeia produtiva das tecnologias vem criando outras estéticas. Até a fotografia, que é a primeira forma histórica de imagem técnica, de imagem mediada pela máquina, e isso não implicou a morte ou a transformação da arte. Mas cria novos paradigmas do olhar que são diluídos na cultura e na sociedade. E cria possibilidades de linguagens e campos inéditos de criação. Transformar a arte como um todo, não, mas transformar nossos paradigmas culturais, sim; a internet já fez isso. O pintor do século 21 não é igual ao do século 18, não só pelos métodos, mas pelo horizonte cultural em que ele está.
TAB: A inteligência artificial é capaz de reescrever a história?
GB: O campo fundamental da nossa época são as humanidades digitais. Gosto desse termo, porque ele sincroniza um tempo onde falar em comunicação, design, arte, filosofia, história, é falar de um território de conhecimento que empresta procedimentos de um ao outro. A transdisciplinaridade é o que nós ganhamos com a cultura digital. Nós tendemos a privilegiar os problemas, mas o que a cultura digital nos trouxe? A abordagem transdisciplinar do mundo. É impossível lidar com a cultura digital de outra forma. Acredito que a inteligência artificial transforma o mundo a partir do momento que ela se constitui em experiências culturais. A internet, entre as mais recentes, e a inteligência artificial, que já está em nosso cotidiano.
TAB: Você já chegou a falar em "coronavigilância". Estamos sendo mais vigiados durante a pandemia?
GB: É um momento laboratorial. Tem uma particularidade: a pré-disposição das pessoas de serem rastreadas. Elas querem e precisam. É uma questão de sobrevivência. Nós estamos muito mais conectados na pandemia e cedemos muito mais dados voluntariamente, por querer contribuir com a segurança pública e a saúde pública. Nosso corpo virou senha de entrada nos lugares. Somos capturados pela nossa fisiologia e os dados que ela gera estão indo para "a nuvem", que não sei o que é, quais são, que servidores são esses e o que pode ser feito desses dados. Não tem como fugir da vigilância. Mas nós temos outro direito que precisamos aprender a revindicar: o de saber se meus dados estão sendo coletados, o que será feito, onde eles estão sendo armazenados e quais os usos que eles podem vir a ter.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.