NA TRAVE Sete em cada 10 projetos de IA falham, diz estudo
Para consultor do BCG, empresas devem envolver áreas diferentes dos negócios para ter sucesso com algoritmos
Sylvain Duranton, sócio da consultoria BCG
No mundo corporativo de 2019, tornou-se lugar comum dizer que uma empresa que não investe em inteligência artificial (IA) tem grande probabilidade de ficar ultrapassada. Mas não basta simplesmente criar um projeto que use algoritmos para conquistar o futuro – pelo menos é o que diz um estudo recente da consultoria Boston Consulting Group (BCG), realizado em parceria com o Massachusetts Institute of Technology (MIT): de cada 10 projetos de IA realizados por companhias, 7 deles não dão resultados ou têm retorno mínimo para as corporações.
“IA é bem diferente de engenharia: não é o caso de fazer um plano e executá-lo, mas sim de aprender com os erros. Também é uma questão de cultura: não é um problema só da área de tecnologia, mas sim do negócio todo”, explica o francês Sylvain Duranton, um dos consultores responsáveis pela pesquisa. Realizado em 97 países, com mais de 2,5 mil profissionais de 19 setores, o estudo mostra ainda que cresceu o receio dos executivos sobre a implementação de IA em suas empresas – hoje, 45% têm esse medo, ante 37% há dois anos. “Há ainda outro fator complicado: as empresas perceberam que podem ficar para trás se não forem capazes de usar máquinas de forma escalável.”
Ao Estado, Duranton, detalha a pesquisa e mostra a receita das empresas bem-sucedidas. Para ele, a inteligência artificial deve complementar o trabalho humano – e não substituí-lo. Caso contrário, e sem as devidas precauções, corremos o risco de criar “algocracias” – um sistema que mistura a “desumanidade” das burocracias com a rapidez do mundo digital.
Por que há uma taxa de falha tão grande nos projetos de IA? Há uma desconexão entre a comunicação das empresas e a realidade. No estudo, percebemos que não há países que estejam extremamente adiantados ou indústrias atrasadas – em todos os setores, há pioneiros e gente que ficou para trás. Porém, os executivos já perceberam que quem não conseguir achar um modo de usar essa tecnologia em escala estará fora do jogo. Não basta só desenvolver soluções: é preciso ter cultura. Quando um projeto de IA é reportado para a área de tecnologia da empresa, ele tem duas vezes menos probabilidade de dar certo do que ao estar sob o comando da área de negócios.
Muito se fala sobre o risco da IA tirar empregos dos humanos. Isso vai mesmo acontecer? Este é um tema que provoca estresse. Um terço das pessoas acha que seu trabalho não existirá em cinco anos. Outro terço até acredita que o emprego estará lá, mas não será qualificado. IA não é um tsunami que vai matar dois terços dos trabalhos em cinco anos. É muito difícil conseguir automatizar completamente uma tarefa – se você conseguir que uma máquina faça 90% do trabalho humano, ainda será preciso ter alguém para os outros 10%. O melhor jeito de usar IA é complementando o trabalho das pessoas.
E como isso pode ser feito? Dá para se preparar?
Dá. Estimo que 80% dos empregos serão afetados por IA, mas de formas diferentes. Alguns deles serão racionalizados. Um bom exemplo são os motoristas: antes, o taxista precisava ter todos os caminhos na cabeça. Hoje, o Uber só precisa seguir um GPS. É o trabalho de simplificar esforços. O outro caminho é a amplificação. Um advogado, hoje, tem de estudar as decisões de determinado juiz para preparar a argumentação para um caso. Um algoritmo pode fazer isso por ele, dando espaço para que o advogado foque na estratégia. É uma questão de adequação, não de perda de posições. Mas é preciso se preparar: as empresas não podem se esconder no passado. É preciso trazer as áreas de recursos humanos e os sindicatos para a mesa, discutindo como adequar a força de trabalho. O quanto antes isso for feito, mais fácil será o futuro.
Quais são os riscos do uso de IA em larga escala?
As máquinas têm dificuldade de lidar com contexto. Hoje, nos EUA, já há algoritmos de preços. Eles têm padrões: se percebe que uma loja em certa vizinhança é pouco sensível a preço, a máquina o eleva. Isso pode gerar distorções se não houver contexto: às vezes, as pessoas podem ser insensíveis a preço não porque são ricas, mas sim porque vivem num bairro pobre e sem opções. Um humano nunca teria feito isso. Se confiarmos cegamente na IA, é algo que pode acontecer. É um problema: hoje, todos querem ser ágeis. A agilidade é tida como o oposto da burocracia – nada mais que um conjunto de regras e padrões criados porque não se confia no julgamento individual. Ora, IA é nada mais que um conjunto de regras gerados por uma máquina. Há o risco de criarmos uma burocracia, ainda mais complexa: a algocracia.
O que é isso?
Imagine um sistema de algoritmos usado em áreas sensíveis, como serviços públicos, escolas, créditos, seguros ou tratamentos de saúde. Se ele funciona de forma automática, ele pode não ter “correções humanizadas”. Se descobrirmos que um algoritmo pode causar danos, ele precisa ser detido e repensado. Não basta apenas usar bancos de dados que não têm viés para gerar um algoritmo que não seja enviesado – a vida não é assim. Sempre há viés. É preciso trabalhar com ética, antecipando os efeitos colaterais das armadilhas da IA. A diferença entre personalização e manipulação de dados é bem pequena.
A lentidão da burocracia é um dos maiores problemas do Brasil. Uma algocracia não seria melhor por ser mais rápida?
Uma algocracia é mais rápida, mas seus danos causam mais estrago. Numa grande burocracia, há o fator humano: apesar das regras, as pessoas tentam se comprometer com o que é certo. O tempo também evita grandes distorções. Já um algoritmo tomará decisões instantâneas – podendo afetar muita gente em segundos.
“Se uma máquina fizer 90% do trabalho humano, ainda será preciso ter alguém. É melhor usar IA para complementar o trabalho das pessoas”
Sylvain Duranton
Sócio da consultoria BCG