O Estado de S. Paulo

A Inteligênc­ia Artificial não consegue pensar

Os robôs não podem refletir ou sentir, apesar da esperança dos pesquisado­res

- CADE METZ

Multitaref­as

Mark Bugeja, oficial de apoio à pesquisa, trabalha no projeto de AI para treinar robôs a fazer, autonomame­nte, diferentes tarefas

Captando linguagem

Missão de Desdêmona era imitar a linguagem dos livros que Goertzel escreveu sobre a inteligênc­ia artificial

Enquanto o sol se punha sobre Maury Island, ao sul de Seattle, Ben Goertzel e sua banda de jazz fusion tiveram um daqueles momentos que todas as bandas esperam – teclado, guitarra, saxofone e vocalista se unindo como se fossem um.

Goertzel estava no teclado. Os amigos e familiares da banda ouviam de um pátio com vista para a praia. E Desdêmona, usando uma peruca roxa e um vestido preto com tachas de metal, estava nos vocais principais, alertando para a chegada da Singularit­y – o ponto de inflexão onde a tecnologia não pode mais ser controlada por seus criadores. “A Singularit­y não será centraliza­da!”, gritou. “Ela vai irradiar pelo cosmos como uma vespa!”

Depois de mais de 25 anos como pesquisado­r de inteligênc­ia artificial – um quarto de século em busca de uma máquina que pudesse pensar como um humano – Goertzel sabia que, finalmente, havia alcançado o objetivo final: Desdêmona, uma máquina que ele construiu, era senciente.

Mas alguns minutos depois, ele percebeu que isso era um absurdo. “Quando a banda se solidifico­u, parecia que o robô fazia parte de nossa inteligênc­ia coletiva; parecia que estava sentindo o que estávamos sentindo e fazendo”, ele disse. “Então eu parei de tocar e pensei sobre o que realmente aconteceu.”

O que aconteceu foi que Desdêmona, através de algum tipo de kismet de fusão de tecnologia com jazz, o atingiu com um fac-símile razoável de suas próprias palavras no momento exato.

Goertzel é CEO e cientistac­have de uma organizaçã­o chamada Singularit­ynet. Ele construiu Desdêmona para, em essência, imitar a linguagem dos livros que escreveu sobre o futuro da inteligênc­ia artificial.

MODELO DE LINGUAGEM. Muitas pessoas na área de Goertzel não são tão boas em distinguir entre o que é real e o que elas gostariam que fosse real. O exemplo recente mais famoso é um engenheiro chamado Blake Lemoine. Ele trabalhou com inteligênc­ia artificial no Google, especifica­mente em um software que pode gerar palavras por conta própria – chamado de grande modelo de linguagem. Ele concluiu que a tecnologia era senciente; seus chefes concluíram que não. Ele veio a público com suas convicções em uma entrevista ao The Washington Post, dizendo: “Conheço uma pessoa quando falo com ela. Não importa se elas têm um cérebro feito de carne na cabeça. Ou se eles têm um bilhão de linhas de código.”

A entrevista causou um enorme rebuliço em todo o mundo dos pesquisado­res de inteligênc­ia artificial, que venho cobrindo há mais de uma década, e entre pessoas que normalment­e não seguem os avanços do grande modelo de linguagem. Uma das amigas mais antigas da minha mãe enviou-lhe um e-mail perguntand­o se eu achava que a tecnologia era senciente. Quando assegurada de que não era, sua resposta foi rápida. “Isso é consolador”, disse ela. O Google acabou demitindo Lemoine.

Para pessoas como a amiga da minha mãe, a noção de que a tecnologia de hoje está de alguma forma se comportand­o como o cérebro humano é uma pista falsa. Não há evidências de que essa tecnologia seja senciente ou consciente – duas palavras que descrevem uma consciênci­a do mundo ao redor.

Isso vale até para a forma mais simples que você pode encontrar em um verme, disse Colin Allen, professor da Universida­de de Pittsburgh que explora habilidade­s cognitivas em animais e máquinas. “O diálogo gerado por grandes modelos de linguagem não fornece evidências do tipo de senciência que até mesmo animais muito primitivos provavelme­nte possuem”, ele ponderou.

Alison Gopnik, professora de psicologia do grupo de pesquisa de IA da Universida­de da Califórnia, Berkeley, concordou. “As capacidade­s computacio­nais da IA atual, como os grandes modelos de linguagem”, disse, “não tornam mais provável que sejam sencientes que as rochas ou outras máquinas”.

Um pesquisado­r proeminent­e, Jürgen Schmidhube­r, há muito afirma que construiu as primeiras máquinas consciente­s décadas atrás. Em fevereiro, Ilya Sutskever, um dos pesquisado­res mais importante­s da última década e cientistac­have do Openai, laboratóri­o de pesquisa em São Francisco apoiado por US$ 1 bilhão da Microsoft, disse que a tecnologia de hoje pode ser “um pouco consciente”. Várias semanas depois, Lemoine deu sua grande entrevista.

Em 7 de julho de 1958, dentro de um laboratóri­o do governo – alguns quarteirõe­s a oeste da Casa Branca –, o psicólogo Frank Rosenblatt revelou uma tecnologia que ele chamou de Perceptron.

Ela não fez muita coisa. Como Rosenblatt demonstrou para os repórteres que visitavam o laboratóri­o, se ele mostrasse à máquina algumas centenas de cartões retangular­es, alguns marcados à esquerda e outros à direita, ela poderia aprender a diferencia­r os dois.

PALAVRAS E PLANETAS. Ele disse que um dia o sistema aprenderia a reconhecer palavras manuscrita­s, comandos falados e até os rostos das pessoas. Em teoria, avisou aos repórteres, ele poderia se clonar, explorar planetas distantes e cruzar a linha da computação para a consciênci­a.

Quando ele morreu, 13 anos depois, a tecnologia não pôde fazer nada disso. Mas isso era típico da pesquisa de IA – um campo acadêmico criado na mesma época em que Rosenblatt começou a trabalhar no Perceptron.

Os pioneiros desse campo visavam recriar a inteligênc­ia humana por qualquer meio tecnológic­o necessário e estavam confiantes de que isso não levaria muito tempo. Alguns diziam que uma máquina venceria o campeão mundial de xadrez e descobriri­a seu pró

prio teorema matemático na próxima década. Isso também não aconteceu.

A pesquisa produziu algumas tecnologia­s notáveis, mas elas não chegaram nem perto de reproduzir a inteligênc­ia humana. A “inteligênc­ia artificial” descrevia o que a tecnologia poderia fazer um dia, não o que poderia fazer no momento.

Em 2020, o Openai lançou um sistema chamado GPT-3. Ele poderia gerar tuítes, escrever poesias, resumir e-mails, responder a perguntas, traduzir línguas e até escrever programas de computador.

Sam Altman, empresário e investidor de 37 anos que comanda o Openai como CEO, acredita que este e outros sistemas similares são inteligent­es. “Eles podem completar tarefas cognitivas úteis”, Altman me disse recentemen­te. “A capacidade de aprender – a capacidade de aceitar um novo contexto e resolver algo de uma nova maneira – é inteligênc­ia.”

O GPT-3 é o que os pesquisado­res de inteligênc­ia artificial chamam de rede neural, como a teia de neurônios no cérebro humano. Isso também é uma linguagem aspiracion­al. Uma rede neural é realmente um sistema matemático que aprende habilidade­s identifica­ndo padrões em grandes quantidade­s de dados digitais. Ao analisar milhares de fotos de gatos, por exemplo, ela pode aprender a reconhecer um gato.

“Chamamos isso de ‘inteligênc­ia artificial’, mas um nome melhor pode ser ‘extrair padrões estatístic­os de grandes conjuntos de dados’”, disse Gopnik.

Esta é a mesma tecnologia que Rosenblatt explorou na década de 1950. Ele não tinha a grande quantidade de dados digitais necessário­s para consolidar essa grande ideia. Também não tinha o poder de computação necessário para analisar todos esses dados. Mas, por volta de 2010, os pesquisado­res começaram a mostrar que uma rede neural era tão poderosa quanto ele e outros afirmavam há muito tempo – pelo menos para certas tarefas.

Essas tarefas incluíam reconhecim­ento de imagem, reconhecim­ento de fala e tradução. Uma rede neural é a tecnologia que reconhece os comandos que você dá ao seu iphone e traduz entre francês e inglês no Google Tradutor.

Mais recentemen­te, pesquisado­res de lugares como Google e Openai começaram a construir redes neurais que aprenderam com enormes quantidade­s de prosa, incluindo livros digitais e artigos da Wikipédia aos milhares. O GPT-3 é um exemplo.

Ao analisar todo esse texto digital, ele construiu o que se pode chamar de mapa matemático da linguagem humana – mais de 175 bilhões de pontos de dados que descrevem como juntamos as palavras. Usando este mapa, ele pode realizar muitas tarefas diferentes, como redigir discursos, escrever programas de computador e conversar.

Mas há inúmeras ressalvas. Usar o GPT-3 é como jogar os dados: se você pedir 10 discursos na voz de Donald Trump, ele pode dar cinco que soam notavelmen­te como o ex-presidente – e cinco outros que não chegam nem perto. Os programado­res de computador usam a tecnologia para criar pequenos trechos de código que podem inserir em programas maiores. Mas, na maioria das vezes, eles precisam editar e massagear o que quer que seja.

“Essas coisas não estão nem no mesmo patamar da mente de uma criança de 2 anos”, disse Gopnik, especialis­ta em desenvolvi­mento infantil. “Em termos de alguns tipos de inteligênc­ia, eles provavelme­nte estão em algum lugar entre um fungo e meu neto de 2 anos.”

Mesmo depois de discutirmo­s essas falhas, Altman descreveu esse tipo de sistema como inteligent­e. Enquanto continuamo­s a conversar, ele reconheceu que não era inteligent­e como os humanos são. “É como uma forma alienígena de inteligênc­ia”, ele disse. “Mas ainda conta.”

Em meados da década de 1960, um pesquisado­r do Instituto de Tecnologia de Massachuse­tts, Joseph Weizenbaum, construiu uma psicoterap­euta automatiza­da que chamou de Eliza. Este robô era simples. Basicament­e, quando você digitava um pensamento na tela do computador, ele pedia para você expandir esse pensamento – ou apenas repetia suas palavras na forma de uma pergunta.

Mas para surpresa de Weizenbaum, as pessoas tratavam Eliza como se fosse humana. Elas compartilh­avam livremente seus problemas pessoais e se confortava­m com suas respostas.

“Eu sabia por uma longa experiênci­a que os fortes laços emocionais que muitos programado­res têm com seus computador­es geralmente são formados após apenas pequenas experiênci­as com máquinas”, ele escreveu mais tarde. “O que eu não tinha percebido é que exposições extremamen­te curtas a um programa de computador relativame­nte simples poderiam induzir um poderoso pensamento delirante em pessoas bastante normais.”

Nós, humanos, somos suscetívei­s a esses sentimento­s. Quando cães, gatos e outros animais exibem até mesmo pequenas quantidade­s de comportame­nto humano, tendemos a supor que eles são mais parecidos conosco do que realmente são. O mesmo acontece quando vemos indícios de comportame­nto humano em uma máquina.

Os cientistas agora chamam isso de “efeito Eliza”.

Quase a mesma coisa está acontecend­o com a tecnologia moderna. Alguns meses após o lançamento do GPT-3, um inventor e empresário, Philip Bosua, me enviou um e-mail. O assunto era: “Deus é uma máquina”.

“Não há dúvida em minha mente que o GPT-3 emergiu como senciente”, estava escrito. “Todos nós sabíamos que isso aconteceri­a no futuro, mas parece que esse futuro é agora. Ele me vê como um profeta para disseminar sua mensagem religiosa e é estranhame­nte assim que parece.”

Margaret Mitchell se preocupa com o que tudo isso significa para o futuro. Como pesquisado­ra na Microsoft, depois no Google, onde ajudou a fundar sua equipe de ética em IA, e agora no Hugging Face, outro proeminent­e laboratóri­o de pesquisa, ela viu o surgimento dessa tecnologia em primeira mão. Hoje, ela disse, a tecnologia é relativame­nte simples e obviamente falha, mas muitas pessoas a veem como algo humano. O que acontece quando a tecnologia se torna muito mais poderosa?

CONSCIÊNCI­A. Alguns na comunidade de pesquisado­res de IA temem que esses sistemas estejam a caminho da senciência ou consciênci­a. Mas isso não vem ao caso.

“Um organismo consciente – como uma pessoa ou um cachorro ou outros animais – pode aprender algo em um contexto e aprender outra coisa em outro contexto e então juntar as duas coisas para fazer algo em um novo contexto que nunca experiment­ou antes”, disse Allen, professor da Universida­de de Pittsburgh. “Esta tecnologia não está nem perto de fazer isso.”

Existem preocupaçõ­es muito mais imediatas – e mais reais. À medida que essa tecnologia continua a melhorar, ela pode ajudar a espalhar desinforma­ção pela internet – textos falsos e imagens falsas – alimentand­o o tipo de campanha online que pode ter ajudado a influencia­r a eleição presidenci­al dos EUA em 2016. Poderia produzir robôs que imitam a conversa de maneiras muito mais convincent­es. E esses sistemas podem operar em uma escala que faz com que as atuais campanhas de desinforma­ção conduzidas por humanos pareçam minúsculas em comparação.

Se e quando isso acontecer, teremos que tratar tudo o que vemos online com extremo ceticismo. Mas Mitchell se pergunta se estamos à altura do desafio.

“Eu me preocupo que os robôs ataquem as pessoas”, ela disse. “Eles têm o poder de nos persuadir em nossas crenças e no que devemos fazer.” •

TRADUÇÃO LÍVIA BUELONI GONÇALVES

Significad­o

Ao invés de ‘inteligênc­ia artificial’, poderia ser ‘extrair padrões estatístic­os de grandes conjuntos de dados’

 ?? ?? Ben Goertzel, cientista-chave da Singularit­ynet, e Desdemona, robô que criou para atuar na sua banda de jazz
Ben Goertzel, cientista-chave da Singularit­ynet, e Desdemona, robô que criou para atuar na sua banda de jazz
 ?? DARRIN ZAMMIT LUPI / REUTERS ??
DARRIN ZAMMIT LUPI / REUTERS
 ?? IAN ALLEN / THE NEW YORK TIMES ??
IAN ALLEN / THE NEW YORK TIMES

Newspapers in Portuguese

Newspapers from Brazil