Topo

Versão genérica da inteligência artificial pode pôr máquina contra o homem?

Cena de "O Exterminador do Futuro: A Salvação" - Divulgação
Cena de "O Exterminador do Futuro: A Salvação" Imagem: Divulgação

Luiza Pollo

Da agência Eder Content, em colaboração para o TAB, de São Paulo

22/08/2019 04h01

A Microsoft anunciou, no fim de julho, um investimento de US$ 1 bilhão em um laboratório cujo objetivo principal pode nunca se concretizar. Mas, com esse dinheiro todo, já dá para imaginar que o produto em questão deve ser bem valioso. Trata-se da inteligência artificial genérica.

O OpenAI, criado por Sam Altman e Elonk Musk (que já saiu da sociedade para se dedicar aos seus outros projetos, como a Tesla), é um dos laboratórios à frente da corrida por esse tipo de inteligência artificial, mais conhecida pela sigla em inglês AGI (artificial general intelligence). A ideia é criar um sistema capaz de realizar qualquer tarefa cognitiva que um ser humano realiza. O próprio laboratório reconhece que essa possibilidade ainda é incerta, mas se propõe a pensar no futuro de maneira que a AGI, se concretizada, seja "benéfica para todos".

Por enquanto, a inteligência artificial que rege os algoritmos que dirigem um carro autônomo ou sugerem um vídeo extremista no YouTube, por exemplo, ainda é bastante limitada a uma única tarefa. Em poucas palavras, ela não é inteligente para tudo, só para aquilo que foi programada para fazer. Onde está, então, essa diferença entre os humanos e os computadores, essencial para desenvolver o que propõe a AGI?

Consciência

Cena de "Blade Runner, o Caçador de Androides" (1982), de Ridley Scott - Reprodução - Reprodução
Cena de "Blade Runner, o Caçador de Androides" (1982), de Ridley Scott
Imagem: Reprodução

Em 1986, o matemático Giancarlo Rota se questionou "se um dia a inteligência artificial vai cruzar a barreira do significado (ou do sentido)". Em inglês, ele usa a palavra meaning.

Diferentes pesquisadores usam termos variados para descrever essa linha ainda intransponível entre um computador e um ser humano. Rogério Figurelli, professor de cursos online do Massachusetts Institute of Technology (MIT), prefere usar, em português, a palavra consciência.

"Eu propus uma equação: sabedoria é inteligência elevada à consciência", diz ele, que pesquisa IA desde a década de 1980 e fundou a Trajecta, empresa de inteligência artificial e robótica. "Não adianta ter uma máquina extremamente inteligente, mas na hora de tomar uma decisão ela não tem a consciência daquilo. Talvez isso nunca aconteça."

E nem é uma questão apenas de tecnologia. Hoje, a ciência ainda não é capaz de explicar como é formado um pensamento, qual é o neurônio ou o estímulo inicial para surgir uma ideia na nossa cabeça. Como é então que seríamos capazes de transferir essa capacidade para uma máquina?

"Inteligência geral é um termo muito abstrato, mas sabemos que, da forma que é nos seres humanos, as máquinas ainda não têm. O que houve nos últimos anos foi um progresso muito grande na inteligência específica", observa Figurelli. Hoje, um software consegue reconhecer com muito mais velocidade do que um ser humano a autenticidade de uma pintura de Jackson Pollock, por exemplo.

Autora de "A Inteligência Artificial irá Suplantar a Inteligência Humana?", Dora Kaufman também desconfia da possibilidade de a IA conseguir chegar ao mesmo nível do cérebro humano. Ela soma à discussão, ainda, um passo além: o conceito de singularidade. Considerada pelo diretor do MediaLab do MIT, Joichi Ito, como "a religião" de alguns dos tecnólogos do Vale do Silício, seria o ponto de virada dos computadores, o momento a partir do qual a inteligência das máquinas vai ultrapassar a humana.

"Não existe consenso nem sobre o presente nem sobre o futuro da IA. Como também não existe uma definição de 'inteligência' universal", afirma Dora, que é pesquisadora do grupo Atopos, da ECA (Escola de Comunicação e Artes da USP). "Por enquanto, vamos nos concentrar no que podemos entender e chamar o restante de aleatório, divino ou simplesmente de especulação mais apropriada ao arbítrio da ficção científica do que ao da ciência."

Aposta de mercado

Cena do filme Interestelar - Divulgação - Divulgação
Em "Interestelar", o robô é tão inteligente que tem até senso de humor
Imagem: Divulgação

Como aponta o New York Times, nos últimos anos, "uma comunidade pequena, mas fervorosa" de pesquisadores de IA começou a apostar na possibilidade de criar a AGI. E mesmo que esses planos ainda apresentem ares de ficção científica, há muito dinheiro investido. Além da Microsoft, há também o exemplo da Alphabet (dona do Google), que comprou o laboratório DeepMind em 2014.

Ainda que os investimentos não estejam gerando retorno -- o DeepMind perdeu US$ 572 milhões apenas no ano passado --, as pesquisas só aumentam. Em artigo na Wired, o cientista e professor da New York University Gary Marcus argumenta que as perdas financeiras são consideráveis, mas elas não devem servir para desanimar as pesquisas na área, mas refletir se o foco está certo.

"Pesquisadores de aprendizado de máquina costumam perguntar: 'Como as máquinas podem otimizar problemas complexos usando quantidades enormes de dados?'. Mas podemos também perguntar: 'Como as crianças adquirem linguagem e compreendem o mundo, usando menos energia e dados que os atuais sistemas de IA?'. Se nós gastarmos mais tempo, dinheiro e energia nessa última pergunta do que na primeira, talvez a gente chegue à AGI bem mais cedo", escreve Marcus.

Mesmo sem estar nem perto de alcançar o objetivo de criar uma inteligência artificial genérica que seja segura, o DeepMind e o OpenAI já conseguiram avanços. Em 2016, o sistema AlphaGo, do DeepMind, venceu o melhor jogador do mundo, o coreano Lee Se-Dol, em um torneio de cinco partidas do jogo milenar Go. "Do ponto de vista técnico, naquele momento, essa era a próxima fronteira em jogos", explica Rodrigo Nemmen, professor do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da USP. "E jogos costumam ser laboratórios para testar a inteligência."

O feito assustou inclusive pesquisadores da área, que previam que a inteligência artificial só conseguiria ganhar nesse jogo pelo menos uma década mais tarde. Isso porque o Go demanda, além de estratégia, intuição. "O número de possibilidades de posicionamento no tabuleiro em determinado momento excede o número de partículas no universo", dimensiona o astrofísico.

Exterminador do Futuro

Se já fomos surpreendidos com a capacidade da IA no Go, será que é mesmo prudente deixar as preocupações em relação à AGI de lado só porque ela ainda não é uma realidade possível?

Depende para quem você pergunta. Elon Musk e Mark Zuckerberg chegaram a protagonizar uma discussão sobre o tema. Enquanto o CEO do Facebook é otimista em relação aos benefícios da IA no futuro, o fundador da Tesla e da Neuralink -- empresa que se propõe a criar uma interface entre cérebros humanos e computadores -- chegou a tuitar em 2014 que a IA é "potencialmente mais perigosa que armas nucleares".

Por outro lado, quem trabalha com o desenvolvimento dos sistemas no dia a dia costuma achar esse medo de uma máquina à Exterminador do Futuro irrelevante, ou até mesmo alarmista, pela ideia de que a "propaganda negativa" poderia frear os avanços da inteligência artificial.

"É como se preocupar com superpopulação em Marte", compara Figurelli, do MIT. "Pode sim acontecer, mas é algo muito distante. Dentro do que se conhece hoje, propor que alguma IA vai ter a capacidade do que propõem os filmes de ficção científica ainda é bastante utópico."

Grady Booch, cientista-chefe de engenharia de software na IBM Research e filósofo, é um dos grandes defensores de deixar os receios de lado. Em um TED visto mais de 3 milhões de vezes, ele chama esse medo de "distração perigosa", contesta e chega a dizer: "em último caso, é só tirar (os computadores) da tomada." O argumento central de Booch é que, criada por humano, a IA adquire valores e o conjunto de regras e leis humanas.

O filósofo vê isso de maneira bastante positiva, mas cabe se perguntar: e quando os valores humanos não são lá tão bons assim? É só observar os casos em que a IA reproduziu preconceitos humanos.

Hal 9000, de 2001: Uma Odisséia no Espaço - Reprodução - Reprodução
Hal 9000, de "2001: Uma Odisseia no Espaço" se volta contra os humanos
Imagem: Reprodução

E o problema não está apenas nas máquinas desenvolverem identidade e se voltarem contra nós. "As alterações podem ser infligidas, inclusive, por hackers alterando imagens ou trechos de textos, ou ainda introduzindo ondas sonoras", lembra Dora Kaufman. Já se fala, por exemplo, na possibilidade de os sistemas de carros autônomos serem hackeados com o objetivo de travar uma cidade.

Se você assiste a muita ficção científica e não consegue tirar esse receio da cabeça, quem sabe fique mais tranquilo ao saber que a OpenAI tem como principal objetivo criar IA colocando os seres humanos em primeiro lugar. Demis Hassabis, fundador da DeepMind, também demonstra cautela. "Nós precisamos usar esse tempo para nos prepararmos para quando as coisas ficarem sérias nas próximas décadas", defendeu ele em uma entrevista.

Por enquanto, há maior consenso em se preocupar com o que já está nos atingindo: não o Exterminador do Futuro, mas coisas mais corriqueiras, como os empregos que podem se tornar obsoletos pela IA.

Fique por dentro de comportamento e cultura seguindo o TAB no Instagram e tenha conteúdos extras sobre inovação, tecnologia e estilo de vida.