Regulamentar a inteligência artificial é um desafio em 4D OPINIÃO
Especialistas veem ameaças existenciais pela competição por boas ideias
[ É melhor deixar a regulamentação às agências nacionais existentes? Ou a tecnologia é tão importante que exige novas instituições internacionais?
Líderes das nações do G7 abordaram muitas preocupações globais enquanto comiam ostras Nomi cozidas ao vapor no último fim de semana em Hiroshima: guerra na Ucrânia, resiliência econômica, energia limpa e segurança alimentar, entre outros. Mas também jogaram um item extra no saco de boas intenções: promoção da inteligência artificial inclusiva e confiável.
Embora reconheçam o potencial inovador da IA, os líderes se preocupam com os danos que pode causar à segurança pública e aos direitos humanos. Ao lançar o processo de IA de Hiroshima, o G7 contratou um grupo de trabalho para analisar o impacto de modelos de IA generativos, como o ChatGPT, e preparar as discussões dos líderes até o final deste ano.
Os desafios iniciais serão a melhor forma de definir a IA, categorizar seus perigos e enquadrar uma resposta apropriada. É melhor deixar a regulamentação às agências nacionais existentes? Ou a tecnologia é tão importante que exige novas instituições internacionais? Precisamos de um equivalente moderno da Agência Internacional de Energia Atômica, fundada em 1957 para promover desenvolvimento pacífico da tecnologia nuclear e impedir seu uso militar?
É discutível com que eficácia o órgão da ONU cumpriu essa missão. Além disso, a tecnologia nuclear envolve material radioativo e infraestrutura maciça que é fisicamente fácil de detectar. A IA, por outro lado, é comparativamente barata, invisível, difundida e tem aplicações infinitas. No mínimo, traz um desafio quadridimensional que deve ser abordado de maneiras mais flexíveis.
A primeira dimensão é a discriminação. Os sistemas de aprendizado de máquina são projetados para discriminar, detectar discrepâncias em padrões. Isso é bom para detectar células cancerígenas em exames de radiologia. Mas é ruim se sistemas de caixa preta treinados em conjuntos de dados defeituosos forem usados para contratar e demitir trabalhadores ou autorizar empréstimos bancários. Proibir esses sistemas em áreas de alto risco inaceitável, como propõe a próxima Lei de IA da União Europeia, é uma abordagem estrita e preventiva. Criar auditores independentes e especializados pode ser melhor.
Segunda, a desinformação. Como o especialista Gary Marcus alertou ao Congresso dos EUA na semana passada, a IA generativa pode colocar em risco a própria democracia. Tais modelos podem gerar mentiras plausíveis e humanos falsificados na velocidade da luz e em escala industrial.
As próprias empresas de tecnologia deveriam arcar com o ônus de certificar o conteúdo e minimizar a desinformação. Não fazer isso só amplificará os apelos por intervenção mais drástica. O precedente pode ter sido dado na China, onde um projeto de lei coloca a responsabilidade pelo uso indevido de modelos de IA no produtor, e não no usuário.
Terceira, deslocamento. Ninguém pode prever com precisão o impacto econômico da IA em geral. Mas parece certo que levará à “desprofissionalização” de muitos empregos, como disse a empresária Vivienne Ming no festival FT Weekend em Washington, DC.
Programadores adotaram amplamente a IA generativa como ferramenta de aumento da produtividade. Por outro lado, roteiristas notáveis de Hollywood podem ser os primeiros de muitos profissionais a temer que suas habilidades básicas sejam automatizadas. Essa história confusa desafia soluções simples. As nações terão de se ajustar aos desafios sociais a seu jeito.
Quarta, devastação. Incorporar IA em sistemas letais de armas autônomas (LAWS), ou robôs assassinos, é uma perspectiva aterrorizante. O princípio de que os humanos devem sempre ficar com a tomada de decisão só pode ser estabelecido e aplicado por tratados internacionais. O mesmo vale para a discussão em torno da IA geral: o dia (possivelmente fictício) em que ultrapassará a inteligência humana em todos os campos. Alguns ativistas descartam esse cenário como fantasia perturbadora. Mas vale a pena dar atenção aos especialistas que alertam sobre possíveis riscos existenciais e pedem colaboração internacional em pesquisa.
Outros podem argumentar que tentar regulamentar a IA é tão inútil quanto rezar para que o sol não se ponha. As leis evoluem de forma incremental, já a IA está se desenvolvendo exponencialmente. Mas Marcus diz que ficou animado com o consenso bipartidário para ação no Congresso dos EUA. Temendo, talvez, que os reguladores da UE fixem normas globais para IA, como fizeram há cinco anos com a proteção de dados, as empresas de tecnologia dos EUA também apoiam publicamente a regulamentação.
Os líderes do G7 devem encorajar competição por boas ideias. Precisam desencadear uma corrida regulatória para o topo, em vez de presidir a queda assustadora.