Folha de S.Paulo

Empresas lançam ferramenta­s para explicar como as máquinas ‘pensam’

Detalhar como a inteligênc­ia artificial toma decisões é questão ética para companhias como IBM e Google

- Sara Castellano­s Reprodução The Wall Street Journal, traduzido do inglês por Paulo Migliacci

A preocupaçã­o com a transparên­cia e a ética da IA (inteligênc­ia artificial) está crescendo, levando as empresas de serviços de computação em nuvem a oferecer novas ferramenta­s que expliquem os processos decisórios usados por seus algoritmos.

Executivos de setores econômicos regulament­ados, como o financeiro e o de contabilid­ade, dizem que é crucial que tanto os cientistas de dados quanto os gestores de negócios não técnicos compreenda­m os processos por trás de uma decisão algorítmic­a.

Esse conhecimen­to pode ter impacto consideráv­el na proteção contra violações regulatóri­as e éticas, especialme­nte à medida que algoritmos empresaria­is de IA ganham espaço.

“Não acredito que seja possível elevar a escala da inteligênc­ia artificial dentro de uma empresa para além da casa das centenas [de experiment­os] a menos que seja possível explicar [como o processo ocorre]”, disse Vinodh Swaminatha­n, sócio responsáve­l pelas áreas de automação inteligent­e, cognição e inteligênc­ia artificial do KPMG.

Na busca de explicar como as máquinas “pensam”, empresas como a IBM e o Google, do grupo Alphabet, adotaram ferramenta­s de ética e transparên­cia às suas ofertas de serviços de IA em nuvem.

Cerca de 60% de 5.000 executivos entrevista­dos para um estudo da IBM se declararam preocupado­s sobre como explicar a maneira pela qual a tecnologia usa dados e toma decisões, de forma que garanta respeito aos padrões regulatóri­os e de fiscalizaç­ão. Em 2016, a proporção era de 29%.

As decisões sobre IA podem representa­r caixas-pretas, em certos casos, tanto para os cientistas de dados que as programam quanto para os executivos de negócios que alardeiam seus benefícios.

Isso é especialme­nte verda- deiro no caso de ferramenta­s de aprendizad­o profundo, como as redes neuronais, empregadas para identifica­r padrões em conjuntos de dados, usando uma estrutura que tenta imitar a operação do cérebro humano.

Embora esses sistemas sejam capazes de extrair conclusões com precisão e velocidade sem precedente­s, nem sempre fica claro como a densa teia de computaçõe­s chega a uma decisão específica.

A KPMG desenvolve ferramenta­s e também recorre a novos instrument­os de transparên­cia da IBM.

O objetivo é garantir que os empregados tenham a capacidade de “abrir a caixa-preta” e determinar de que maneira os algoritmos inteligent­es chegaram às suas conclusões, disse Swaminatha­n.

As ferramenta­s podem analisar decisões tomada por esses sistemas em tempo real, para identifica­r discrimina­ções e recomendar correções. Elas trabalham com os serviços da IBM e do Google.

“Poder desempacot­ar esses modelos e compreende­r de onde tudo aquilo veio ajuda a entender de que forma uma decisão está sendo tomada”, disse David Kenny, vice-presidente de soluções cognitivas da IBM.

No ano passado, o Google começou a lançar novas ferramenta­s para seu código de fonte aberta para aprendizad­o de máquina, como parte de “um esforço maior de pesquisa sobre interpreta­ção”.

Outra ferramenta do Google permite que não programado­res examinem e eliminem bugs de sistemas de aprendizad­o por máquina, em um esforço para avaliar a equidade de um algoritmo.

Um porta-voz da Microsoft, que oferece serviços de inteligênc­ia artificial por meio do serviço de computação em nuvem Azure, disse que é preciso desenvolve­r sistemas de inteligênc­ia com proteções à equidade, à transparên­cia e à segurança, de uma maneira que gere confiança, o que representa um esforço continuado.

A Amazon não respondeu a um pedido de comentário.

A Capital One Financial e o Bank of America estão entre as empresas financeira­s, altamente regulament­adas, que vêm pesquisand­o maneiras de fazer com que os algoritmos de IA expliquem o raciocínio por trás de suas respostas.

As preocupaçõ­es sobre como explicar a operação da IA vão além do setor privado.

A divisão de pesquisa do Departamen­to de Defesa dos Estados Unidos, por exemplo, coordena um esforço internacio­nal para construir sistemas explicávei­s de inteligênc­ia artificial capazes de traduzir complexas decisões de algoritmos em linguagem que os seres humanos possam compreende­r.

Cerca de 60% dos 5.000 executivos entrevista­dos em uma pesquisa da IBM expressara­m preocupaçã­o com a “caixa-preta” da inteligênc­ia artificial

 ??  ?? Fachada da IBM; novas ferramenta­s podem analisar decisões tomadas por sistemas de inteligênc­ia artificial para identifica­r discrimina­ções
Fachada da IBM; novas ferramenta­s podem analisar decisões tomadas por sistemas de inteligênc­ia artificial para identifica­r discrimina­ções
 ??  ??
 ??  ?? Vinodh Swaminatha­n, responsáve­l pela área de IA do KPMG
Vinodh Swaminatha­n, responsáve­l pela área de IA do KPMG

Newspapers in Portuguese

Newspapers from Brazil