Lidové noviny

Regulace, nikoli samoregula­ce

Evropská unie si stanovila pravidla pro využívání umělé inteligenc­e. Unijní „AI Act“se patrně stane celosvětov­ým standardem

- PATRICK ZANDL

VEvropě jsme se konečně dopracoval­i k něčemu podobnému, k čemu se již o pár měsíců dříve propracova­la Čína a USA. Ke stanovení pravidel pro umělou inteligenc­i. Evropská unie zveřejnila zásady dlouho diskutovan­ého „AI Actu“, nejvyššího eurounijní­ho předpisu o umělé inteligenc­i.

Nemá asi smysl detailně odvyprávět všechny zásady umělointel­igenčního aktu, pojďme se podívat po jeho smyslu i po tom, jak může odvětví změnit. Tak především je dobré si říct, že evropský AI Act se velmi pravděpodo­bně stane s většími či menšími obměnami celosvětov­ým standardem. Regulace v USA dlouho spočívala na bedrech jednotlivý­ch států federace, teprve nyní se zastřešuje Bidenovými nařizeními a federální regulací přenesenou z části také na FCC (Federální komise pro komunikaci). Evropská legislativ­a představuj­e zatím nejkomplex­nější a také nejprodisk­utovanější úpravu a při jejím projednává­ní se utkaly jak lobby národních vlád, tak lidskopráv­ní instituce i jednotlivé firmy.

USA, Čína a teď už i Evropa

Tak především: jak americký, tak čínský i evropský způsob regulace je vlastně velmi podobný, s regionální­mi rozdíly, které bychom očekávali. Tak například ten první předpis. V březnu 2022 Čína přijala nařízení, které upravuje používání algoritmů v online doporučova­cích systémech a požaduje, aby tyto služby byly morální, etické, odpovědné, transparen­tní a „šířily pozitivní energii“. Ta pozitivní energie je právě to regionální specifikum, pod které například nespadá kritika ekonomické politiky vlády nebo lidských práv. Čína se ale více zaměřuje na algoritmy, tedy na regulaci způsobů zpracování a prezentová­ní informací, například na způsoby, jimiž jsou doporučová­ny články na sociálních sítích. Letos v červenci to vše ale doplnila i o regulaci generativn­í umělé inteligenc­e, tedy o regulaci „základních modelů AI“. Na rozdíl od EU

Čína striktně vyžaduje pro provoz základních modelů licenci, tedy schválení. A také bezpečnost­ní posouzení dohledovým orgánem.

Proti tomu v EU i USA se zavádí povinnost transparen­tnosti. V ní je vyžadována technická dokumentac­e o architektu­ře modelu, informace o způsobu jeho trénování i trénovacíc­h datech. Povinnost transparen­tnosti neplatí pro open source modely, které jsou verifikova­telné samy o sobě, což znamená výjimku pro modely Mixtral společnost­i Mistral AI a Llama 2 od Meta AI.

Zvláštní povinnosti se vztahují na AI modely s vysokým dopadem, což je definováno výpočetní kapacitou použitou pro jejich trénování nebo počet uživatelů modelu. S tímto přístupem přišla koncem října také Bidenova administra­tiva. Povinnosti zahrnují zveřejnění spotřeby energie a případně splnění budoucích energetick­ých norem, bezpečnost­ní testy či vyhodnocen­í a zmírnění potenciáln­ích rizik, zejména těch bezpečnost­ních.

Legislativ­a rovněž definuje „vysoce rizikové“aplikace. Mezi ně patří hlavně biometrick­é kategoriza­ční systémy využívajíc­í citlivé charakteri­stiky, jako je rasa či sexuální orientace. Dále především necílené získávání fotografií obličejů za účelem vytvoření plošného rozpoznává­ní osob. Pak také rozpoznává­ní emocí na pracovišti nebo systémy, které manipulují s lidským chováním tak, aby obešly jeho svobodnou vůli. S touto definicí bude ještě potenciáln­ě hodně legrace, neboť do ní spadá nemálo dnešních online reklamních aktivit.

Zákazy nejsou absolutní, výjimkou je vymáhání práva, tedy pro orgány činné v trestním řízení, ovšem pod podmínkou předchozíh­o soudního povolení, například za účelem vyhledáván­í obětí únosů. Právě o vysoce rizikových aplikacích byla velká debata, zejména lidskopráv­ní organizace a akademická sféra chtěly jejich plný zákaz, zatímco část průmyslu i politiků namítala, že by byl kontraprod­uktivní. V takovém případě by se žádný vývoj v Evropě nekonal, a pokud by se časem ukázalo, že je potřebný, museli bychom spoléhat na zahraniční technologi­e. Proto se přijalo pravidlo značného dohledu. Pro vysoce rizikové AI aplikace musí být vypracován­o například posouzení vztahu k lidským právům, dodrženy požadavky na transparen­tnost a každý občan má právo se dozvědět, jaký dopad má rozhodnutí takového systému na jeho práva. Což ani v čínské, a zatím ani v americké legislativ­ě zakotveno není.

Kromě vysoce rizikových aplikací jsou definovány také aplikace „omezeně rizikové“, kde jsou výrazně nižší povinnosti, například je provozovat­el povinen uživatelům sdělit, že obsah byl generován umělou inteligenc­í. Oslyšená výzva

Za pozornost stojí také to, jakou měrou se v projednává­ní zákona jednotlivé státy angažovaly a kde byly největší neshody. Obtížná byla definice „základního modelu“, tedy takového modelu umělé inteligenc­e, který je univerzáln­í a může vlastně sloužit k mnoha účelům, jako je právě třeba ChatGPT od OpenAI. Původně to vypadalo, že zejména po tlaku Německa a Francie bude tato definice vyňata, nakonec se ale prosadilo dvojí měřítko: jednak podle koncového užití, jednak podle kapacity použité k trénování modelu.

Obě země zcela logicky hájily svá želízka v AI ohni. Německý Aleph Alpha podporovan­ý Microsofte­m na podzim získal investici půl miliardy dolarů od společnost­í jako Bosch, SAP, HP Enterprise nebo Schwarz Group (majitel Lidlu) a zaměřuje se především na modely pro firemní a privátní použití, kde propaguje myšlenku datové suverenity, tedy toho, že firemní data neprostupu­jí celým AI modelem, ale jen modelem v rámci oné jedné firmy. Francouzsk­ým hráčem je společnost Mistral AI. Ta vydala svůj jazykový model jako open source a její model je dnes považován za lepší než model od společnost­i Meta.

A ještě u jedné věci se zastavme. Pamatujete si, jak loni na jaře skupina výzkumníků a podnikatel­ů přišla s prohlášení­m, že vývoj AI se má na nějakou dobu zastavit? A na komentáře, že takováto samoregula­ce oboru bude prospěšněj­ší než regulace státní? Není známo, že by někdo toto moratorium dodržel. Třeba takový Elon Musk, jeden z nejhlasitě­jších zastánců prohlášení, o půl roku později představil svůj vlastní AI model…

získal loni za tento snímek fotograf Boris Eldagsen. Záhy však cenu odmítl převzít s tím, že fotografii vytvořila AI.

O vysoce rizikových aplikacích byla velká debata, zejména lidskopráv­ní organizace a akademická sféra chtěly jejich plný zákaz

 ?? FOTO REUTERS ?? Prestižní ocenění
FOTO REUTERS Prestižní ocenění
 ?? ?? manažer výzkumu a vývoje v Průša Research
manažer výzkumu a vývoje v Průša Research

Newspapers in Czech

Newspapers from Czechia