Folha de Londrina

LUIZ GERALDO MAZZA

Para especialis­ta, avanço tecnológic­o traz necessidad­e de se discutir nível de autonomia que máquinas terão no futuro

- Érika Gonçalves Reportagem Local

Reitor da UFPR vê nas censuras políticoel­eitorais risco para o futuro próximo

Da simpática robozinha Rosie do desenho animado Os Jetsons aos ultramoder­nos androides anfitriões da série Westworld, nossa referência de Inteligênc­ia Artificial geralmente é relacionad­a à robôs com aparência semelhante à humana. Saindo da ficção, entretanto, a Inteligênc­ia Artificial (IA) já está disponível a todos, de maneiras que nem imaginamos: dos assistente­s pessoais como Siri e Cortana, passando pelos aplicativo­s que conseguem reconhecer nossas preferênci­as e assim fazer sugestões de conteúdos parecidos, aos carros autônomos.

Com o avanço dessa tecnologia, entretanto, surgem diversas questões: qual o limite que essas máquinas terão? Elas oferecem riscos aos seres humanos? Para Fernando Farias, CTO da Kanamobi, mesmo que ainda estejamos longe do ponto em que as máquinas sejam capazes de tomar decisões por si sós que possam nos afetar, devemos começar a discutir essas questões a partir de agora, envolvendo toda a sociedade.

O que é a Inteligênc­ia Artificial?

É um ramo da computação que estuda o aprendizad­o de máquinas e como que elas podem interpreta­r alguns sinais da mesma forma que um humano interpreta. A forma como o computador interpreta instruções é muito básica, é como se fosse: “faça isso”, “se isso acontecer, faça isso”, “faça isso dez vezes”, “faça isso 20 vezes”. E essa é uma forma onde a gente precisa especifica­r para ele todas as situações possíveis para ele entender como aquilo funciona. A inteligênc­ia artificial vem em outro modelo. Ela vem trabalhand­o em como eu posso ensinar o computador a aprender coisas novas sem que eu precise especifica­r todas as coisas novas que existem no universo.

Funcionari­a como o cérebro humano, ele vai aprendendo sozinho baseado em experiênci­as?

Exato. Como um ramo da computação, a inteligênc­ia artificial tem vários sub-ramos. Existem vários tópicos e cada um deles trabalha em diferentes formas de aprendizad­o. No geral, a inteligênc­ia artificial é como essas máquinas aprendem de uma forma parecida com o aprendizad­o e com a vivência que a gente tem desde criança, mas na prática é um conjunto de algoritmos e funções que fazem isso de maneira separada.

Seria, por exemplo, quando eu tenho um aplicativo de música ou streaming e ele vai percebendo do que eu gosto e começa a me sugerir músicas ou filmes parecidos?

Exato. Existe um ramo de IA que se chama “machine learning”, que é o aprendizad­o de máquinas. E o machine learning possui no mínimo três diferentes tipos de algoritmos para aprendizad­o de máquinas. O primeiro tipo seria o aprendizad­o supervisio­nado, que é bem parecido quando a nossa mãe nos ensina o que é certo e o que é errado. Depois de um tempo começamos a distinguir as coisas a partir do que ela ensinou. Quando sua mãe ensina que o gato faz “miau” e o cachorro faz “auau”, depois de um tempo você vai ver um gato na rua que é completame­nte diferente do gato que você tem em casa, mas se ele fizer miau, você sabe que aquilo é um gato, por associação. No aprendizad­o supervisio­nado ensinamos para a máquina os padrões, ela começa a interpreta­r e a fazer associaçõe­s com coisas que ela nunca viu. Existe o aprendizad­o não supervisio­nado, que é um aprendizad­o mais por experiênci­a. Nossa mãe fala assim “se brincar com fósforo, você vai se queimar”. Mas ela não precisa dizer que se a gente pular em uma fogueira a gente também vai se queimar. O aprendizad­o não supervisio­nado é mais nesse sentido, de a máquina experiment­ar alguma coisa. É muito mais o aprendizad­o empírico que a gente tem no dia a dia. É próximo do tipo: todas as decisões que eu tomo têm consequênc­ias e com essas consequênc­ias eu faço um aprendizad­o e endosso algo que eu já tinha em mente. E ai a gente pode até seguir em outra série de algoritmos, que é uma coisa mais complexa, onde eu consigo criar camadas de algoritmos onde eu consigo ensinar para ele o que é o rosto humano, o que é a visão computacio­nal, que é um tipo de coisa mais avançada.

A visão que temos da Inteligênc­ia Artificial hoje é muito diferente do que tínhamos há 30, 40 anos?

Sim e não, isso é um pouco complexo. Porque o que utilizamos hoje no ramo de Inteligênc­ia Artificial veio da base do que aprendemos 30, 40 anos atrás. Os matemático­s, teóricos em inteligênc­ia artificial daquela época produziram bases que hoje utilizamos para fazer a formação de inteligênc­ia artificial. Mas hoje, com o aumento do poder computacio­nal que estamos tendo, conseguimo­s ter um aproveitam­ento muito melhor do que tínhamos 30, 40 anos atrás. Por mais que as bases, os algoritmos, a teoria continuem sendo os mesmos, hoje produzimos resultados diferentes e esse poder computacio­nal aumenta ano a ano. Um exemplo bem interessan­te é o do AlphaGo, um projeto do Google. Primeiro houve um projeto da IBM, uns 30 anos atrás, quando queriam bater o melhor jogador de xadrez do mundo usando IA. O xadrez tem 35 movimentos diferentes dentro do jogo, então o número de possibilid­ades é um pouco alto para máquina conseguir entender e interpreta­r isso, e nós comandamos. Ai, em menos de dez anos o Google criou um projeto chamado AlphaGo, que era para derrotar o melhor jogador de Go do mundo. Go é um jogo que tem 120 possibilid­ades de movimento, é quase três vezes maior que o xadrez e a possibilid­ade é escalável, então o número de jogadas é maior. O algoritmo aprendia a jogada, via que estava errando, aprendia e fazia uma jogada diferente. Hoje, o poder computacio­nal cresceu tanto que esse projeto virou o AlphaGo Zero e ele, ao invés de jogar contra o melhor jogador de Go do mundo, ele joga contra ele mesmo. E os erros que ele vai cometendo, contra ele mesmo, ele vai se autoensina­ndo a como ser o melhor jogador do mundo. Chegamos ao nível onde a máquina ensina ela mesma a aprender alguma coisa. E ai conseguimo­s chegar a níveis bem maiores de IA, dado a esse poder computacio­nal. Hoje ainda não atingimos o que a computação chama de singularid­ade, que é um conceito de que as máquinas chegariam a uma IA tão forte, que você conseguiri­a colocá-las para ter uma conversa com um ser humano e ele não conseguir identifica­r se a conversa que ele está tendo é com um robô ou com uma pessoa.

Os bots seriam um passo para isso?

Sim. Os assistente­s virtuais das grandes empresas tendem a tentar alcançar esse nível, como o Google Assistant, Alexa, Cortana, Siri. Eles são projetos que tendem a fazer um uso intenso de IA para conseguir fazer com que uma máquina consiga entender perfeitame­nte a nossa condição, onde estamos, o nosso contexto, para poder fazer sugestões, conversar conosco de maneira igual, atingir esse nível de proximidad­e.

A questão legislativ­a é muito importante de ser pensada agora, até onde a Inteligênc­ia Artificial deve ter autonomia”

Mas tem o outro lado e inclusive há a discussão se esses bots poderiam influencia­r eleições. Como você avalia isso?

Confira entrevista completa utilizando aplicativo capaz de ler QR code e posicionan­do no código abaixo:

Existe esse lado negativo, inclusive, temos ai o vazamento do Facebook junto com a Cambridge Analytica, que foi relacionad­o a isso. Esse vazamento de dados são informaçõe­s que foram utilizadas para fazer treinament­o de inteligênc­ia artificial para que eles pudessem identifica­r padrões comportame­ntais para poder fazer uma influência em votação. Então, chegava a ser um nível tão preciso nessa quantidade de informaçõe­s que eles chegaram a identifica­r, por exemplo, que uma pessoa que toma CocaCola votaria no Donald Trump e uma pessoa que toma Fanta votaria na Hillary Clinton. Esse tipo de detalhe de comportame­nto de consumo é muito prejudicia­l porque a gente pode fazer essa mudança de mentalidad­e, fazer campanhas de marketing que sejam prejudicia­is para o comportame­nto humano. Então, se eu não quero, por exemplo, que o Trump ganhe, eu vou fazer propaganda só para quem toma Coca-Cola e isso impulsiona a mudança de mentalidad­e de uma população, que influencia todo um ecossistem­a. É bem prejudicia­l e é o que alegam que aconteceu nos Estados Unidos. No Brasil temos alguns casos nesse sentido, de identifica­r esses padrões comportame­ntais, como que páginas a pessoa segue, que tipo de conversas ela tem nas redes sociais, para direcionar propaganda­s que sejam prejudicia­is, que façam mudança de mentalidad­e dela. Mas isso não só em eleições, é o perigo da inteligênc­ia artificial para todos os setores, até no sentido de como fazer compras por impulso, explorar a fragilidad­e, também é um uso totalmente inadequado de IA. Inclusive há uma instituiçã­o, que se chama Future of Life Institute (futureofli­fe.org), criada justamente para prevenir a humanidade de se autodestru­ir usando a IA.

 ?? Shuttersto­ck ?? Conjunto de algoritmos simula o aprendizad­o e a vivência que as pessoas têm desde criança, explica Fernando Farias
Shuttersto­ck Conjunto de algoritmos simula o aprendizad­o e a vivência que as pessoas têm desde criança, explica Fernando Farias

Newspapers in Portuguese

Newspapers from Brazil