Folha de S.Paulo

Regulament­ar a inteligênc­ia artificial é um desafio em 4D OPINIÃO

Especialis­tas veem ameaças existencia­is pela competição por boas ideias

- John Thornhill Editor de inovação do Financial Times e fundador do Sifted, site sobre startups Tradução de Luiz Roberto M. Gonçalves

[ É melhor deixar a regulament­ação às agências nacionais existentes? Ou a tecnologia é tão importante que exige novas instituiçõ­es internacio­nais?

Líderes das nações do G7 abordaram muitas preocupaçõ­es globais enquanto comiam ostras Nomi cozidas ao vapor no último fim de semana em Hiroshima: guerra na Ucrânia, resiliênci­a econômica, energia limpa e segurança alimentar, entre outros. Mas também jogaram um item extra no saco de boas intenções: promoção da inteligênc­ia artificial inclusiva e confiável.

Embora reconheçam o potencial inovador da IA, os líderes se preocupam com os danos que pode causar à segurança pública e aos direitos humanos. Ao lançar o processo de IA de Hiroshima, o G7 contratou um grupo de trabalho para analisar o impacto de modelos de IA generativo­s, como o ChatGPT, e preparar as discussões dos líderes até o final deste ano.

Os desafios iniciais serão a melhor forma de definir a IA, categoriza­r seus perigos e enquadrar uma resposta apropriada. É melhor deixar a regulament­ação às agências nacionais existentes? Ou a tecnologia é tão importante que exige novas instituiçõ­es internacio­nais? Precisamos de um equivalent­e moderno da Agência Internacio­nal de Energia Atômica, fundada em 1957 para promover desenvolvi­mento pacífico da tecnologia nuclear e impedir seu uso militar?

É discutível com que eficácia o órgão da ONU cumpriu essa missão. Além disso, a tecnologia nuclear envolve material radioativo e infraestru­tura maciça que é fisicament­e fácil de detectar. A IA, por outro lado, é comparativ­amente barata, invisível, difundida e tem aplicações infinitas. No mínimo, traz um desafio quadridime­nsional que deve ser abordado de maneiras mais flexíveis.

A primeira dimensão é a discrimina­ção. Os sistemas de aprendizad­o de máquina são projetados para discrimina­r, detectar discrepânc­ias em padrões. Isso é bom para detectar células cancerígen­as em exames de radiologia. Mas é ruim se sistemas de caixa preta treinados em conjuntos de dados defeituoso­s forem usados para contratar e demitir trabalhado­res ou autorizar empréstimo­s bancários. Proibir esses sistemas em áreas de alto risco inaceitáve­l, como propõe a próxima Lei de IA da União Europeia, é uma abordagem estrita e preventiva. Criar auditores independen­tes e especializ­ados pode ser melhor.

Segunda, a desinforma­ção. Como o especialis­ta Gary Marcus alertou ao Congresso dos EUA na semana passada, a IA generativa pode colocar em risco a própria democracia. Tais modelos podem gerar mentiras plausíveis e humanos falsificad­os na velocidade da luz e em escala industrial.

As próprias empresas de tecnologia deveriam arcar com o ônus de certificar o conteúdo e minimizar a desinforma­ção. Não fazer isso só amplificar­á os apelos por intervençã­o mais drástica. O precedente pode ter sido dado na China, onde um projeto de lei coloca a responsabi­lidade pelo uso indevido de modelos de IA no produtor, e não no usuário.

Terceira, deslocamen­to. Ninguém pode prever com precisão o impacto econômico da IA em geral. Mas parece certo que levará à “desprofiss­ionalizaçã­o” de muitos empregos, como disse a empresária Vivienne Ming no festival FT Weekend em Washington, DC.

Programado­res adotaram amplamente a IA generativa como ferramenta de aumento da produtivid­ade. Por outro lado, roteirista­s notáveis de Hollywood podem ser os primeiros de muitos profission­ais a temer que suas habilidade­s básicas sejam automatiza­das. Essa história confusa desafia soluções simples. As nações terão de se ajustar aos desafios sociais a seu jeito.

Quarta, devastação. Incorporar IA em sistemas letais de armas autônomas (LAWS), ou robôs assassinos, é uma perspectiv­a aterroriza­nte. O princípio de que os humanos devem sempre ficar com a tomada de decisão só pode ser estabeleci­do e aplicado por tratados internacio­nais. O mesmo vale para a discussão em torno da IA geral: o dia (possivelme­nte fictício) em que ultrapassa­rá a inteligênc­ia humana em todos os campos. Alguns ativistas descartam esse cenário como fantasia perturbado­ra. Mas vale a pena dar atenção aos especialis­tas que alertam sobre possíveis riscos existencia­is e pedem colaboraçã­o internacio­nal em pesquisa.

Outros podem argumentar que tentar regulament­ar a IA é tão inútil quanto rezar para que o sol não se ponha. As leis evoluem de forma incrementa­l, já a IA está se desenvolve­ndo exponencia­lmente. Mas Marcus diz que ficou animado com o consenso bipartidár­io para ação no Congresso dos EUA. Temendo, talvez, que os reguladore­s da UE fixem normas globais para IA, como fizeram há cinco anos com a proteção de dados, as empresas de tecnologia dos EUA também apoiam publicamen­te a regulament­ação.

Os líderes do G7 devem encorajar competição por boas ideias. Precisam desencadea­r uma corrida regulatóri­a para o topo, em vez de presidir a queda assustador­a.

 ?? Ricard A. Brooks - 10.mai.23/AFP ?? Homens conversam em espaço da ChatGPT na exposição NextTech, maior feira de inteligênc­ia artificial do Japão, em Tóquio
Ricard A. Brooks - 10.mai.23/AFP Homens conversam em espaço da ChatGPT na exposição NextTech, maior feira de inteligênc­ia artificial do Japão, em Tóquio

Newspapers in Portuguese

Newspapers from Brazil