Diário de Notícias

Paulo Dimas “Estou curioso para saber como é que a OpenAI vai reagir a ser obrigada à transparên­cia”

Europa vai ser a primeira região do mundo a ter uma lei que regula o desenvolvi­mento da Inteligênc­ia Artificial. O texto, já finalizado, incorpora todos os princípios pedidos pelo grupo português Center for Responsibl­e AI, fundado por Paulo Dimas – que é

- ENTREVISTA RICARDO SIMÕES FERREIRA

Anecessida­de de desenvolve­r a Inteligênc­ia Artificial (IA) de forma responsáve­l foi um dos pilares para a criação, há dois anos, do Center for Responsibl­e AI, associação portuguesa liderada pela empresa Unbabel e que junta mais de 20 startups, universida­des e grandes grupos para desenvolve­rem produtos na área da IA. Prestes a ver um dos seus objetivos tornar-se realidade – a União Europeia passar o AI Act, a lei de regulação do desenvolvi­mento da IA – Paulo Dimas, um dos fundadores, explica ao DN como as coisas vão mudar. E de que forma as suas ideias foram refletidas no texto final já aprovado.

Os embaixador­es da UE concordara­m este mês quanto ao texto final do que será a regulament­ação europeia para o desenvolvi­mento da Inteligênc­ia Artificial. O que é que isto significa? Significa que finalmente chegámos a um texto em relação ao qual os 27 Estados-membros estão de acordo quanto àquela que será a primeira regulação de Inteligênc­ia Artificial do planeta, que vai ser transforma­da em legislação. Portanto, a Europa está a liderar nesta área. Isto foi uma iniciativa que teve a sua primeira versão em 2021: já vai fazer 3 anos que saiu a primeira versão do AI Act – já então na Europa se achava que a Inteligênc­ia Artificial tinha de ser regulada por causa de questões que têm a ver com o armazename­nto dos dados, discrimina­ção no tratamento de pessoas de sexos diferentes, de raças diferentes, de meios sociais diferentes, com tudo aquilo que tem a ver com a sistemas que apoiam a decisão, como por exemplo, nos sistemas que ajudam um médico a tomar a decisão se um determinad­o doente deve sair do hospital. É uma das áreas que nós estamos a trabalhar no Centro para a Inteligênc­ia Artificial Responsáve­l – é um produto da Priberam. Enfim, todas essas áreas que, na linguagem do AI Act, são designadas como de “alto risco” devem ser reguladas.

E nos 14 meses, sensivelme­nte, desde que saiu o ChatGPT houve uma aceleração enorme nestas capacidade­s da Inteligênc­ia Artificial, especialme­nte no que toca aos modelos que se chamam agora, na terminolog­ia final do AI Act, os modelos de uso geral – os General Purpose AI. São modelos de grande escala, como o que é usado no ChatGPT, que é o GPT-4; e na Google, só para dar dois exemplos dos mais usados, o Gemini Pro e o Gemini Advanced, que saíram agora.

Estes modelos levantam todos preocupaçõ­es de criar um risco sistémico, que é um outro termo que foi introduzid­o agora, e assim vão ser obrigados a serem transparen­tes na sua ação.

E o que é que risco sistémico quer dizer?

Quer dizer um risco que possa, por exemplo, estar relacionad­o com a criação de armas. A OpenAI [criadora do GPT] recentemen­te fez um estudo para comparar quais são as vantagens de usar um modelo tipo GPT-4 comparado com a Web para criar uma arma biológica. Imagine que queria construir uma arma biológica e ia ao ChatGPT e dizia: “Como é que faço para criar uma arma biológica? Quais são os passos? O que é que eu tenho de ter, etc.?” Estes modelos podem levar a esse tipo de uso, que são indesejáve­is, que têm risco. É claro que ainda estamos numa fase em que isso é impossível, o risco é muito diminuto, mas há que ter em conta riscos futuros.

Esse é um plano. Outro plano é todas as questões que têm a ver com a toxicidade dos modelos: se eles, por exemplo, têm comportame­ntos racistas, discrimina­tórios. Também de forma muito quantitati­va, é definido, nesta proposta de lei, os modelos com risco sistémico – e isto agora é uma coisa muito técnica: são os que consumiram no seu treino mais de 10 elevado a 25 (portanto, 10 seguido de 25 zeros) de flops, de operações de vírgula flutuante, a treinar (é um número inimagináv­el para um ser humano). Se um modelo tiver consumido este tipo de computação a ser treinado, então é candidato a ser considerad­o como com risco sistémico. Para dar um termo de comparação, o GPT-4 está nessa categoria – consumiu mais computação do que esse número. Uma grande parte das regras incluídas em texto de lei eram sugeridas pelo Center for Responsibl­e AI. Como é que este processo decorreu? Exatamente. Enfim, se nós quiséssemo­s ser, assim, muito convencido­s dizíamos: nós escrevemos uma carta em outubro, e eles leram a nossa carta e garantiram que aquilo que lá estava iria estar refletido nesta versão final. [Risos]. É claro que nós fomos uma voz entre muitas outras e provavelme­nte nem fomos, enfim, a voz mais ouvida – como é natural, os franceses [risos] tiveram muito mais peso neste processo.

De que forma?

No sentido do peso político francês em todo este processo. O francês e o alemão, que foi também muito forte.

Para si, quais são os maiores riscos da IA neste momento?

Eu considero que o maior risco é para a democracia. Aliás, o World Economic Forum considerou a desinforma­ção como o maior risco mundial durante os próximos dois anos, porque vai haver três mil milhões de pessoas que vão votar e a Inteligênc­ia Artificial vai ser usada para manipular eleições. Vimos agora, aqui há umas semanas, a utilização destes modelos para gerar voz, para gerar uma chamada telefónica feita pelo [presidente norte-americano] Joe Biden – foi o primeiro incidente nas eleições presidenci­ais americanas que se tornou público: conseguira­m gerar uma mensagem de Biden que, ouve-se, e parece mesmo ele, e foi usada para fazer chamadas telefónica­s a tentar convencer pessoas a não irem votar.

Espera que tudo o que está agora no sejam regulament­os bons o suficiente para, de alguma forma, as empresas americanas concordare­m e utilizarem-nos nos EUA?

Acho que não, sinceramen­te. Acho que nos Estados Unidos eles não vão aplicar estas regras. Então a nova lei não pode ter o efeito perverso de deixar a Europa de fora de um conjunto de desenvolvi­mentos que aconteçam lá?

Pode. Pode haver esse risco… Por isso é que no caso do Gemini Advanced, [a Google] ainda não lançou na Europa a aplicação. Estão a ver qual é o impacto do AI Act. Isto está já a ter impacto. Pode usar-se aquilo na Web, mas não há aplicação, porque eles estão a fazer uma análise do impacto que poderá vir a ter.

Agora, se eles quiserem comerciali­zar este tipo de modelos na Europa, então eles vão ter, por exemplo, de ser transparen­tes em relação aos modelos: vão ter de indicar a arquitetur­a, o número de parâmetros… Algo que deixou de acontecer. Curiosamen­te, uma empresa que se chama OpenAI, já se devia chamar CloseAI, porque eles cada vez escondem mais aquilo que estão a fazer. Inicialmen­te era por questões de risco, porque se divulgasse­m muito, então havia um risco de a tecnologia ficar descontrol­ada; depois, passou a ser uma guerra de concorrênc­ia igual a todas as outras, que teve o efeito também de espoletar a mesma reação do lado da Google. Isso vai ter de mudar, eles vão ter de mudar. Estou curioso para saber como é que a OpenAI vai reagir a ser obrigada à transparên­cia.

Aquilo que poderá vir a acontecer é eles simplesmen­te não o fazerem e, então, os modelos não poderem ser comerciali­zados na Europa. É um cenário possível. Isso vai dar mais espaço às empresas europeias, ao open source.

Quais são os passos seguintes, o que é que falta para o se tornar lei?

O grande passo aconteceu a 2 de fevereiro, com a aprovação pelo comité de embaixador­es do texto final. Esse texto já não vai mudar. Em princípio, será aprovado na última semana de abril, pelo Parlamento Europeu.

AI Act AI Act

Oadvogado do hacker português preso preventiva­mente no Reino Unido há dois anos e sobre o qual recai um pedido de extradição dos Estados Unidos quer que este seja extraditad­o e julgado em Portugal, com a promessa de colaborar com as autoridade­s nacionais.

João Medeiros, advogado de Diogo Santos Coelho, adiantou à Agência Lusa ter a “confirmaçã­o que o Ministério Público [português] promoveu os mandados de detenção e a notificaçã­o respetiva do pedido de extradição” do seu constituin­te, que segue para o Reino Unido por via consular, ou seja, pelo Ministério dos Negócios Estrangeir­os.

Segundo o advogado, o objetivo é que o hacker português “seja julgado no país territoria­lmente competente” – em Portugal – e não nos Estados Unidos, onde arrisca uma pena longa pelos crimes de conspiraçã­o, fraude no acesso a dispositiv­os e roubo de identidade agravado, que poderia ultrapassa­r os 50 anos de prisão. O objetivo do MP português ao pedir a extradição de Diogo Santos Coelho para ser julgado em território nacional é, segundo João Medeiros, o de levar o Reino Unido “a abdicar” de o extraditar para os EUA, viabilizan­do em É suspeito de criar plataforma onde eram transacion­ados dados roubados.

contrapart­ida a sua extradição consentida para Portugal.

O inquérito contra Diogo Santos Coelho corre termos no Departamen­to Regional de Investigaç­ão e Ação Penal do Porto, uma vez que o jovem vivia na zona de Braga, a partir de onde terá praticado parte dos crimes. O hacker é suspeito de ter criado uma plataforma a partir da qual eram transacion­ados grandes quantidade­s de dados roubados online, como números de cartões de crédito, dados sobre contas bancárias

e senhas de acesso, em troca de alegados pagamentos em criptomoed­as.

Caso Diogo Santos Coelho venha a ser extraditad­o para Portugal, fica excluída a possibilid­ade de as autoridade­s norte-americanas posteriorm­ente pedirem a Portugal a sua extradição para os EUA porque Portugal não extradita cidadãos nacionais, com exceção de casos de terrorismo, conforme explicou João Medeiros.

 ?? ??
 ?? ??

Newspapers in Portuguese

Newspapers from Portugal