Paulo Dimas “Estou curioso para saber como é que a OpenAI vai reagir a ser obrigada à transparência”
Europa vai ser a primeira região do mundo a ter uma lei que regula o desenvolvimento da Inteligência Artificial. O texto, já finalizado, incorpora todos os princípios pedidos pelo grupo português Center for Responsible AI, fundado por Paulo Dimas – que é
Anecessidade de desenvolver a Inteligência Artificial (IA) de forma responsável foi um dos pilares para a criação, há dois anos, do Center for Responsible AI, associação portuguesa liderada pela empresa Unbabel e que junta mais de 20 startups, universidades e grandes grupos para desenvolverem produtos na área da IA. Prestes a ver um dos seus objetivos tornar-se realidade – a União Europeia passar o AI Act, a lei de regulação do desenvolvimento da IA – Paulo Dimas, um dos fundadores, explica ao DN como as coisas vão mudar. E de que forma as suas ideias foram refletidas no texto final já aprovado.
Os embaixadores da UE concordaram este mês quanto ao texto final do que será a regulamentação europeia para o desenvolvimento da Inteligência Artificial. O que é que isto significa? Significa que finalmente chegámos a um texto em relação ao qual os 27 Estados-membros estão de acordo quanto àquela que será a primeira regulação de Inteligência Artificial do planeta, que vai ser transformada em legislação. Portanto, a Europa está a liderar nesta área. Isto foi uma iniciativa que teve a sua primeira versão em 2021: já vai fazer 3 anos que saiu a primeira versão do AI Act – já então na Europa se achava que a Inteligência Artificial tinha de ser regulada por causa de questões que têm a ver com o armazenamento dos dados, discriminação no tratamento de pessoas de sexos diferentes, de raças diferentes, de meios sociais diferentes, com tudo aquilo que tem a ver com a sistemas que apoiam a decisão, como por exemplo, nos sistemas que ajudam um médico a tomar a decisão se um determinado doente deve sair do hospital. É uma das áreas que nós estamos a trabalhar no Centro para a Inteligência Artificial Responsável – é um produto da Priberam. Enfim, todas essas áreas que, na linguagem do AI Act, são designadas como de “alto risco” devem ser reguladas.
E nos 14 meses, sensivelmente, desde que saiu o ChatGPT houve uma aceleração enorme nestas capacidades da Inteligência Artificial, especialmente no que toca aos modelos que se chamam agora, na terminologia final do AI Act, os modelos de uso geral – os General Purpose AI. São modelos de grande escala, como o que é usado no ChatGPT, que é o GPT-4; e na Google, só para dar dois exemplos dos mais usados, o Gemini Pro e o Gemini Advanced, que saíram agora.
Estes modelos levantam todos preocupações de criar um risco sistémico, que é um outro termo que foi introduzido agora, e assim vão ser obrigados a serem transparentes na sua ação.
E o que é que risco sistémico quer dizer?
Quer dizer um risco que possa, por exemplo, estar relacionado com a criação de armas. A OpenAI [criadora do GPT] recentemente fez um estudo para comparar quais são as vantagens de usar um modelo tipo GPT-4 comparado com a Web para criar uma arma biológica. Imagine que queria construir uma arma biológica e ia ao ChatGPT e dizia: “Como é que faço para criar uma arma biológica? Quais são os passos? O que é que eu tenho de ter, etc.?” Estes modelos podem levar a esse tipo de uso, que são indesejáveis, que têm risco. É claro que ainda estamos numa fase em que isso é impossível, o risco é muito diminuto, mas há que ter em conta riscos futuros.
Esse é um plano. Outro plano é todas as questões que têm a ver com a toxicidade dos modelos: se eles, por exemplo, têm comportamentos racistas, discriminatórios. Também de forma muito quantitativa, é definido, nesta proposta de lei, os modelos com risco sistémico – e isto agora é uma coisa muito técnica: são os que consumiram no seu treino mais de 10 elevado a 25 (portanto, 10 seguido de 25 zeros) de flops, de operações de vírgula flutuante, a treinar (é um número inimaginável para um ser humano). Se um modelo tiver consumido este tipo de computação a ser treinado, então é candidato a ser considerado como com risco sistémico. Para dar um termo de comparação, o GPT-4 está nessa categoria – consumiu mais computação do que esse número. Uma grande parte das regras incluídas em texto de lei eram sugeridas pelo Center for Responsible AI. Como é que este processo decorreu? Exatamente. Enfim, se nós quiséssemos ser, assim, muito convencidos dizíamos: nós escrevemos uma carta em outubro, e eles leram a nossa carta e garantiram que aquilo que lá estava iria estar refletido nesta versão final. [Risos]. É claro que nós fomos uma voz entre muitas outras e provavelmente nem fomos, enfim, a voz mais ouvida – como é natural, os franceses [risos] tiveram muito mais peso neste processo.
De que forma?
No sentido do peso político francês em todo este processo. O francês e o alemão, que foi também muito forte.
Para si, quais são os maiores riscos da IA neste momento?
Eu considero que o maior risco é para a democracia. Aliás, o World Economic Forum considerou a desinformação como o maior risco mundial durante os próximos dois anos, porque vai haver três mil milhões de pessoas que vão votar e a Inteligência Artificial vai ser usada para manipular eleições. Vimos agora, aqui há umas semanas, a utilização destes modelos para gerar voz, para gerar uma chamada telefónica feita pelo [presidente norte-americano] Joe Biden – foi o primeiro incidente nas eleições presidenciais americanas que se tornou público: conseguiram gerar uma mensagem de Biden que, ouve-se, e parece mesmo ele, e foi usada para fazer chamadas telefónicas a tentar convencer pessoas a não irem votar.
Espera que tudo o que está agora no sejam regulamentos bons o suficiente para, de alguma forma, as empresas americanas concordarem e utilizarem-nos nos EUA?
Acho que não, sinceramente. Acho que nos Estados Unidos eles não vão aplicar estas regras. Então a nova lei não pode ter o efeito perverso de deixar a Europa de fora de um conjunto de desenvolvimentos que aconteçam lá?
Pode. Pode haver esse risco… Por isso é que no caso do Gemini Advanced, [a Google] ainda não lançou na Europa a aplicação. Estão a ver qual é o impacto do AI Act. Isto está já a ter impacto. Pode usar-se aquilo na Web, mas não há aplicação, porque eles estão a fazer uma análise do impacto que poderá vir a ter.
Agora, se eles quiserem comercializar este tipo de modelos na Europa, então eles vão ter, por exemplo, de ser transparentes em relação aos modelos: vão ter de indicar a arquitetura, o número de parâmetros… Algo que deixou de acontecer. Curiosamente, uma empresa que se chama OpenAI, já se devia chamar CloseAI, porque eles cada vez escondem mais aquilo que estão a fazer. Inicialmente era por questões de risco, porque se divulgassem muito, então havia um risco de a tecnologia ficar descontrolada; depois, passou a ser uma guerra de concorrência igual a todas as outras, que teve o efeito também de espoletar a mesma reação do lado da Google. Isso vai ter de mudar, eles vão ter de mudar. Estou curioso para saber como é que a OpenAI vai reagir a ser obrigada à transparência.
Aquilo que poderá vir a acontecer é eles simplesmente não o fazerem e, então, os modelos não poderem ser comercializados na Europa. É um cenário possível. Isso vai dar mais espaço às empresas europeias, ao open source.
Quais são os passos seguintes, o que é que falta para o se tornar lei?
O grande passo aconteceu a 2 de fevereiro, com a aprovação pelo comité de embaixadores do texto final. Esse texto já não vai mudar. Em princípio, será aprovado na última semana de abril, pelo Parlamento Europeu.
AI Act AI Act
Oadvogado do hacker português preso preventivamente no Reino Unido há dois anos e sobre o qual recai um pedido de extradição dos Estados Unidos quer que este seja extraditado e julgado em Portugal, com a promessa de colaborar com as autoridades nacionais.
João Medeiros, advogado de Diogo Santos Coelho, adiantou à Agência Lusa ter a “confirmação que o Ministério Público [português] promoveu os mandados de detenção e a notificação respetiva do pedido de extradição” do seu constituinte, que segue para o Reino Unido por via consular, ou seja, pelo Ministério dos Negócios Estrangeiros.
Segundo o advogado, o objetivo é que o hacker português “seja julgado no país territorialmente competente” – em Portugal – e não nos Estados Unidos, onde arrisca uma pena longa pelos crimes de conspiração, fraude no acesso a dispositivos e roubo de identidade agravado, que poderia ultrapassar os 50 anos de prisão. O objetivo do MP português ao pedir a extradição de Diogo Santos Coelho para ser julgado em território nacional é, segundo João Medeiros, o de levar o Reino Unido “a abdicar” de o extraditar para os EUA, viabilizando em É suspeito de criar plataforma onde eram transacionados dados roubados.
contrapartida a sua extradição consentida para Portugal.
O inquérito contra Diogo Santos Coelho corre termos no Departamento Regional de Investigação e Ação Penal do Porto, uma vez que o jovem vivia na zona de Braga, a partir de onde terá praticado parte dos crimes. O hacker é suspeito de ter criado uma plataforma a partir da qual eram transacionados grandes quantidades de dados roubados online, como números de cartões de crédito, dados sobre contas bancárias
e senhas de acesso, em troca de alegados pagamentos em criptomoedas.
Caso Diogo Santos Coelho venha a ser extraditado para Portugal, fica excluída a possibilidade de as autoridades norte-americanas posteriormente pedirem a Portugal a sua extradição para os EUA porque Portugal não extradita cidadãos nacionais, com exceção de casos de terrorismo, conforme explicou João Medeiros.