Regulace, nikoli samoregulace
Evropská unie si stanovila pravidla pro využívání umělé inteligence. Unijní „AI Act“se patrně stane celosvětovým standardem
VEvropě jsme se konečně dopracovali k něčemu podobnému, k čemu se již o pár měsíců dříve propracovala Čína a USA. Ke stanovení pravidel pro umělou inteligenci. Evropská unie zveřejnila zásady dlouho diskutovaného „AI Actu“, nejvyššího eurounijního předpisu o umělé inteligenci.
Nemá asi smysl detailně odvyprávět všechny zásady umělointeligenčního aktu, pojďme se podívat po jeho smyslu i po tom, jak může odvětví změnit. Tak především je dobré si říct, že evropský AI Act se velmi pravděpodobně stane s většími či menšími obměnami celosvětovým standardem. Regulace v USA dlouho spočívala na bedrech jednotlivých států federace, teprve nyní se zastřešuje Bidenovými nařizeními a federální regulací přenesenou z části také na FCC (Federální komise pro komunikaci). Evropská legislativa představuje zatím nejkomplexnější a také nejprodiskutovanější úpravu a při jejím projednávání se utkaly jak lobby národních vlád, tak lidskoprávní instituce i jednotlivé firmy.
USA, Čína a teď už i Evropa
Tak především: jak americký, tak čínský i evropský způsob regulace je vlastně velmi podobný, s regionálními rozdíly, které bychom očekávali. Tak například ten první předpis. V březnu 2022 Čína přijala nařízení, které upravuje používání algoritmů v online doporučovacích systémech a požaduje, aby tyto služby byly morální, etické, odpovědné, transparentní a „šířily pozitivní energii“. Ta pozitivní energie je právě to regionální specifikum, pod které například nespadá kritika ekonomické politiky vlády nebo lidských práv. Čína se ale více zaměřuje na algoritmy, tedy na regulaci způsobů zpracování a prezentování informací, například na způsoby, jimiž jsou doporučovány články na sociálních sítích. Letos v červenci to vše ale doplnila i o regulaci generativní umělé inteligence, tedy o regulaci „základních modelů AI“. Na rozdíl od EU
Čína striktně vyžaduje pro provoz základních modelů licenci, tedy schválení. A také bezpečnostní posouzení dohledovým orgánem.
Proti tomu v EU i USA se zavádí povinnost transparentnosti. V ní je vyžadována technická dokumentace o architektuře modelu, informace o způsobu jeho trénování i trénovacích datech. Povinnost transparentnosti neplatí pro open source modely, které jsou verifikovatelné samy o sobě, což znamená výjimku pro modely Mixtral společnosti Mistral AI a Llama 2 od Meta AI.
Zvláštní povinnosti se vztahují na AI modely s vysokým dopadem, což je definováno výpočetní kapacitou použitou pro jejich trénování nebo počet uživatelů modelu. S tímto přístupem přišla koncem října také Bidenova administrativa. Povinnosti zahrnují zveřejnění spotřeby energie a případně splnění budoucích energetických norem, bezpečnostní testy či vyhodnocení a zmírnění potenciálních rizik, zejména těch bezpečnostních.
Legislativa rovněž definuje „vysoce rizikové“aplikace. Mezi ně patří hlavně biometrické kategorizační systémy využívající citlivé charakteristiky, jako je rasa či sexuální orientace. Dále především necílené získávání fotografií obličejů za účelem vytvoření plošného rozpoznávání osob. Pak také rozpoznávání emocí na pracovišti nebo systémy, které manipulují s lidským chováním tak, aby obešly jeho svobodnou vůli. S touto definicí bude ještě potenciálně hodně legrace, neboť do ní spadá nemálo dnešních online reklamních aktivit.
Zákazy nejsou absolutní, výjimkou je vymáhání práva, tedy pro orgány činné v trestním řízení, ovšem pod podmínkou předchozího soudního povolení, například za účelem vyhledávání obětí únosů. Právě o vysoce rizikových aplikacích byla velká debata, zejména lidskoprávní organizace a akademická sféra chtěly jejich plný zákaz, zatímco část průmyslu i politiků namítala, že by byl kontraproduktivní. V takovém případě by se žádný vývoj v Evropě nekonal, a pokud by se časem ukázalo, že je potřebný, museli bychom spoléhat na zahraniční technologie. Proto se přijalo pravidlo značného dohledu. Pro vysoce rizikové AI aplikace musí být vypracováno například posouzení vztahu k lidským právům, dodrženy požadavky na transparentnost a každý občan má právo se dozvědět, jaký dopad má rozhodnutí takového systému na jeho práva. Což ani v čínské, a zatím ani v americké legislativě zakotveno není.
Kromě vysoce rizikových aplikací jsou definovány také aplikace „omezeně rizikové“, kde jsou výrazně nižší povinnosti, například je provozovatel povinen uživatelům sdělit, že obsah byl generován umělou inteligencí. Oslyšená výzva
Za pozornost stojí také to, jakou měrou se v projednávání zákona jednotlivé státy angažovaly a kde byly největší neshody. Obtížná byla definice „základního modelu“, tedy takového modelu umělé inteligence, který je univerzální a může vlastně sloužit k mnoha účelům, jako je právě třeba ChatGPT od OpenAI. Původně to vypadalo, že zejména po tlaku Německa a Francie bude tato definice vyňata, nakonec se ale prosadilo dvojí měřítko: jednak podle koncového užití, jednak podle kapacity použité k trénování modelu.
Obě země zcela logicky hájily svá želízka v AI ohni. Německý Aleph Alpha podporovaný Microsoftem na podzim získal investici půl miliardy dolarů od společností jako Bosch, SAP, HP Enterprise nebo Schwarz Group (majitel Lidlu) a zaměřuje se především na modely pro firemní a privátní použití, kde propaguje myšlenku datové suverenity, tedy toho, že firemní data neprostupují celým AI modelem, ale jen modelem v rámci oné jedné firmy. Francouzským hráčem je společnost Mistral AI. Ta vydala svůj jazykový model jako open source a její model je dnes považován za lepší než model od společnosti Meta.
A ještě u jedné věci se zastavme. Pamatujete si, jak loni na jaře skupina výzkumníků a podnikatelů přišla s prohlášením, že vývoj AI se má na nějakou dobu zastavit? A na komentáře, že takováto samoregulace oboru bude prospěšnější než regulace státní? Není známo, že by někdo toto moratorium dodržel. Třeba takový Elon Musk, jeden z nejhlasitějších zastánců prohlášení, o půl roku později představil svůj vlastní AI model…
získal loni za tento snímek fotograf Boris Eldagsen. Záhy však cenu odmítl převzít s tím, že fotografii vytvořila AI.
O vysoce rizikových aplikacích byla velká debata, zejména lidskoprávní organizace a akademická sféra chtěly jejich plný zákaz