Topo

Notícias


Engenheiros recriam software de fake news "muito perigoso para ser lançado"

Congresso derruba veto a pena mais dura para quem divulga fake news nas eleições - Getty Images/iStockphoto
Congresso derruba veto a pena mais dura para quem divulga fake news nas eleições Imagem: Getty Images/iStockphoto

Do TAB

Em São Paulo

29/08/2019 17h25

A OpenAI, uma empresa de inteligência artificial, desenvolveu um software capaz de aprender padrões de linguagens e, com isso, criar histórias sozinho. A empresa, fundada por Elon Musk e que já recebeu US$ 1 bilhão de investimento da Microsoft, decidiu que seria muito perigoso lançar o código de uma vez porque poderia ser usado para fabricar fake news. No entanto, diversos engenheiros já estão copiando a tecnologia.

A empresa lançou hoje metade do código do software, batizado de GPT-2. Com ele, publicou um artigo científico discutindo os possíveis benefícios da tecnologia e como a estratégia de lançá-la em pedaços pode ajudar a se antecipar a maus usos, como a criação de notícias falsas. Dois dias antes, dois engenheiros da computação - Aaron Gokaslan, 23 anos, e Vanya Cohen, 34 anos - criaram um software que replicava o da OpenAI e lançaram na internet gratuitamente.

Tanto o software da OpenAI quanto o da dupla de engenheiros escaneia milhões de textos de links postados no Reddit, um dos maiores fóruns da internet e onde acontecem intensos debates políticos. A tecnologia analisa os artigos para aprender padrões de linguagem. Além de criar notícias falsas, o software também pode ser utilizado para ferramentas de tradução, robôs conversacionais ou mesmo para ajudar jornalistas a escrever mais rápido.

Gokaslan e Cohen afirmam que precisaram do equivalente a US$ 50 mil de computação em nuvem - que o Google disponibiliza gratuitamente para instituições acadêmicas - para conseguir desenvolver a tecnologia.

Em entrevista à revista Wired, eles afirmam que o objetivo era mostrar que a tecnologia já está ao alcance de todos e que as pessoas já podem se preparar para suas consequências, sejam elas positivas ou negativas. "Isso permite que todos tenham uma conversa importante sobre segurança e que os pesquisadores possam criar proteções contra eventuais abusos", diz Cohen à revista.

Fique por dentro de comportamento e cultura seguindo o TAB no Instagram e tenha conteúdos extras sobre inovação, tecnologia e estilo de vida.

Notícias