LUIZ GERALDO MAZZA
Para especialista, avanço tecnológico traz necessidade de se discutir nível de autonomia que máquinas terão no futuro
Reitor da UFPR vê nas censuras políticoeleitorais risco para o futuro próximo
Da simpática robozinha Rosie do desenho animado Os Jetsons aos ultramodernos androides anfitriões da série Westworld, nossa referência de Inteligência Artificial geralmente é relacionada à robôs com aparência semelhante à humana. Saindo da ficção, entretanto, a Inteligência Artificial (IA) já está disponível a todos, de maneiras que nem imaginamos: dos assistentes pessoais como Siri e Cortana, passando pelos aplicativos que conseguem reconhecer nossas preferências e assim fazer sugestões de conteúdos parecidos, aos carros autônomos.
Com o avanço dessa tecnologia, entretanto, surgem diversas questões: qual o limite que essas máquinas terão? Elas oferecem riscos aos seres humanos? Para Fernando Farias, CTO da Kanamobi, mesmo que ainda estejamos longe do ponto em que as máquinas sejam capazes de tomar decisões por si sós que possam nos afetar, devemos começar a discutir essas questões a partir de agora, envolvendo toda a sociedade.
O que é a Inteligência Artificial?
É um ramo da computação que estuda o aprendizado de máquinas e como que elas podem interpretar alguns sinais da mesma forma que um humano interpreta. A forma como o computador interpreta instruções é muito básica, é como se fosse: “faça isso”, “se isso acontecer, faça isso”, “faça isso dez vezes”, “faça isso 20 vezes”. E essa é uma forma onde a gente precisa especificar para ele todas as situações possíveis para ele entender como aquilo funciona. A inteligência artificial vem em outro modelo. Ela vem trabalhando em como eu posso ensinar o computador a aprender coisas novas sem que eu precise especificar todas as coisas novas que existem no universo.
Funcionaria como o cérebro humano, ele vai aprendendo sozinho baseado em experiências?
Exato. Como um ramo da computação, a inteligência artificial tem vários sub-ramos. Existem vários tópicos e cada um deles trabalha em diferentes formas de aprendizado. No geral, a inteligência artificial é como essas máquinas aprendem de uma forma parecida com o aprendizado e com a vivência que a gente tem desde criança, mas na prática é um conjunto de algoritmos e funções que fazem isso de maneira separada.
Seria, por exemplo, quando eu tenho um aplicativo de música ou streaming e ele vai percebendo do que eu gosto e começa a me sugerir músicas ou filmes parecidos?
Exato. Existe um ramo de IA que se chama “machine learning”, que é o aprendizado de máquinas. E o machine learning possui no mínimo três diferentes tipos de algoritmos para aprendizado de máquinas. O primeiro tipo seria o aprendizado supervisionado, que é bem parecido quando a nossa mãe nos ensina o que é certo e o que é errado. Depois de um tempo começamos a distinguir as coisas a partir do que ela ensinou. Quando sua mãe ensina que o gato faz “miau” e o cachorro faz “auau”, depois de um tempo você vai ver um gato na rua que é completamente diferente do gato que você tem em casa, mas se ele fizer miau, você sabe que aquilo é um gato, por associação. No aprendizado supervisionado ensinamos para a máquina os padrões, ela começa a interpretar e a fazer associações com coisas que ela nunca viu. Existe o aprendizado não supervisionado, que é um aprendizado mais por experiência. Nossa mãe fala assim “se brincar com fósforo, você vai se queimar”. Mas ela não precisa dizer que se a gente pular em uma fogueira a gente também vai se queimar. O aprendizado não supervisionado é mais nesse sentido, de a máquina experimentar alguma coisa. É muito mais o aprendizado empírico que a gente tem no dia a dia. É próximo do tipo: todas as decisões que eu tomo têm consequências e com essas consequências eu faço um aprendizado e endosso algo que eu já tinha em mente. E ai a gente pode até seguir em outra série de algoritmos, que é uma coisa mais complexa, onde eu consigo criar camadas de algoritmos onde eu consigo ensinar para ele o que é o rosto humano, o que é a visão computacional, que é um tipo de coisa mais avançada.
A visão que temos da Inteligência Artificial hoje é muito diferente do que tínhamos há 30, 40 anos?
Sim e não, isso é um pouco complexo. Porque o que utilizamos hoje no ramo de Inteligência Artificial veio da base do que aprendemos 30, 40 anos atrás. Os matemáticos, teóricos em inteligência artificial daquela época produziram bases que hoje utilizamos para fazer a formação de inteligência artificial. Mas hoje, com o aumento do poder computacional que estamos tendo, conseguimos ter um aproveitamento muito melhor do que tínhamos 30, 40 anos atrás. Por mais que as bases, os algoritmos, a teoria continuem sendo os mesmos, hoje produzimos resultados diferentes e esse poder computacional aumenta ano a ano. Um exemplo bem interessante é o do AlphaGo, um projeto do Google. Primeiro houve um projeto da IBM, uns 30 anos atrás, quando queriam bater o melhor jogador de xadrez do mundo usando IA. O xadrez tem 35 movimentos diferentes dentro do jogo, então o número de possibilidades é um pouco alto para máquina conseguir entender e interpretar isso, e nós comandamos. Ai, em menos de dez anos o Google criou um projeto chamado AlphaGo, que era para derrotar o melhor jogador de Go do mundo. Go é um jogo que tem 120 possibilidades de movimento, é quase três vezes maior que o xadrez e a possibilidade é escalável, então o número de jogadas é maior. O algoritmo aprendia a jogada, via que estava errando, aprendia e fazia uma jogada diferente. Hoje, o poder computacional cresceu tanto que esse projeto virou o AlphaGo Zero e ele, ao invés de jogar contra o melhor jogador de Go do mundo, ele joga contra ele mesmo. E os erros que ele vai cometendo, contra ele mesmo, ele vai se autoensinando a como ser o melhor jogador do mundo. Chegamos ao nível onde a máquina ensina ela mesma a aprender alguma coisa. E ai conseguimos chegar a níveis bem maiores de IA, dado a esse poder computacional. Hoje ainda não atingimos o que a computação chama de singularidade, que é um conceito de que as máquinas chegariam a uma IA tão forte, que você conseguiria colocá-las para ter uma conversa com um ser humano e ele não conseguir identificar se a conversa que ele está tendo é com um robô ou com uma pessoa.
Os bots seriam um passo para isso?
Sim. Os assistentes virtuais das grandes empresas tendem a tentar alcançar esse nível, como o Google Assistant, Alexa, Cortana, Siri. Eles são projetos que tendem a fazer um uso intenso de IA para conseguir fazer com que uma máquina consiga entender perfeitamente a nossa condição, onde estamos, o nosso contexto, para poder fazer sugestões, conversar conosco de maneira igual, atingir esse nível de proximidade.
A questão legislativa é muito importante de ser pensada agora, até onde a Inteligência Artificial deve ter autonomia”
Mas tem o outro lado e inclusive há a discussão se esses bots poderiam influenciar eleições. Como você avalia isso?
Confira entrevista completa utilizando aplicativo capaz de ler QR code e posicionando no código abaixo:
Existe esse lado negativo, inclusive, temos ai o vazamento do Facebook junto com a Cambridge Analytica, que foi relacionado a isso. Esse vazamento de dados são informações que foram utilizadas para fazer treinamento de inteligência artificial para que eles pudessem identificar padrões comportamentais para poder fazer uma influência em votação. Então, chegava a ser um nível tão preciso nessa quantidade de informações que eles chegaram a identificar, por exemplo, que uma pessoa que toma CocaCola votaria no Donald Trump e uma pessoa que toma Fanta votaria na Hillary Clinton. Esse tipo de detalhe de comportamento de consumo é muito prejudicial porque a gente pode fazer essa mudança de mentalidade, fazer campanhas de marketing que sejam prejudiciais para o comportamento humano. Então, se eu não quero, por exemplo, que o Trump ganhe, eu vou fazer propaganda só para quem toma Coca-Cola e isso impulsiona a mudança de mentalidade de uma população, que influencia todo um ecossistema. É bem prejudicial e é o que alegam que aconteceu nos Estados Unidos. No Brasil temos alguns casos nesse sentido, de identificar esses padrões comportamentais, como que páginas a pessoa segue, que tipo de conversas ela tem nas redes sociais, para direcionar propagandas que sejam prejudiciais, que façam mudança de mentalidade dela. Mas isso não só em eleições, é o perigo da inteligência artificial para todos os setores, até no sentido de como fazer compras por impulso, explorar a fragilidade, também é um uso totalmente inadequado de IA. Inclusive há uma instituição, que se chama Future of Life Institute (futureoflife.org), criada justamente para prevenir a humanidade de se autodestruir usando a IA.