Člověk na prvním místě
Etickým otázkám spojeným s využíváním umělé inteligence se nevyhneme
Jedním z témat, kterým se v posledním roce Evropská unie intenzivně věnuje, jsou etické otázky spojené s využíváním inteligentních aplikací a systémů. Zaručení etického přístupu k vývoji a využívání umělé inteligence totiž EU považuje za výraznou konkurenční výhodu a budování tzv. důvěryhodné umělé inteligence za nutnost. Celá Evropa nyní čeká na finální doporučení High-Level Expert Group on AI, která už v prosinci 2018 vydala návrh etických pokynů, v nichž nastínila, jakým směrem bychom se měli do budoucna ubírat.
Kromě formulace obecných etických principů a návodu k jejich realizaci u inteligentních systémů ale HLEGAI rovněž identifikovala několik možných využití umělé inteligence, jejichž případná realizace je přinejmenším znepokojující, ale v závislosti na rozsahu a způsobu realizace může výrazně negativně zasáhnout do práv a svobod jednotlivců. Konkrétně jde o využívání technologií k identifikování osob bez jejich souhlasu, skryté provozování inteligentních systémů, hodnocení osobnosti člověka v masovém měřítku či využívání autonomních zbraňových systémů umožňujících zabít člověka.
Všichni lidé jsou si rovni
Právě nové možnosti hodnocení osobnosti člověka podle mého názoru dobře ilustrují fenomén a zároveň problém naší doby. Máme totiž nejenom čím dál více informací o lidech obecně, ale rozvíjí se stále nové metody posuzování nejrůznějších typů dat a jejich korelací. Z letmých výrazů v obličeji pozná inteligentní systém náladu člověka ještě před tím, než si daná osoba uvědomí, jak se vlastně cítí. Z intonace a zabarvení hlasu může systém určit míru momentálního stresu monitorované osoby. Analýzou historie vyhledávání na internetu můžeme poměrně hluboko nahlédnout do duše konkrétního člověka. Tyto problémy by měla řešit a samozřejmě řeší legislativa zaměřená na ochranu soukromí a zpracování osobních údajů. Nicméně i zde začínají vyvstávat otázky, které všechny informace bychom měli brát v potaz při rozhodování o člověku tak, abychom dodrželi zásadu, podle které jsou si všichni lidé rovni.
S pomocí datové analýzy a inteligentních technologií dokážeme nahlédnout nejenom do duše a povahy člověka, ale také do „duše národa“. V knize od Setha Stephense-Dawidowitze s názvem Všichni lžou: Velká data, chytré algoritmy a jak nám internet může říci, kdo opravdu jsme je krásně ilustrováno, jak lidé svěří internetovému vyhledávači své nejhlubší obavy, touhy a preference. A také jak lze z masy anonymních dat odhalit volební preference, skrytý rasismus či rozdílné přístupy mužů z jednotlivých národů k tomu, když zjistí, že je jejich žena těhotná. S tím, jak roste naše úroveň poznání o tom, kdo jsme a kde jsou naše slabiny, by měla ale zároveň růst i komplikovanost našeho morálního hodnocení získaných údajů. Otázkou také bude, jak s novými informacemi naložíme.
HLEGAI v návrhu etických pokynů uvádí, že se hodnocení občanů v určité omezené sféře již provádí (např. hodnocení studijních výsledků nebo hodnocení schopností a znalostí člověka pro účely udělení řidičského oprávnění). V takových případech by měly být lidem dostupné informace týkající se hodnotícího procesu včetně jeho účelu a metody hodnocení. Takovéto hodnocení občanů je však adresné a týká se jednotlivců. Byť i zde mohou nastat spory o to, co je v konkrétním případě etické využití technologie, jednotlivec má v těchto případech k dispozici nástroje obrany ve formě základních lidských práv a celoevropského důrazu na zaručení autonomie člověka.
Jak určíme hranice autonomie člověka, které omezují zájmy celé společnosti?
Jednoduché odpovědi neexistují Jak bychom ale měli postupovat v případě, kdy začneme hodnotit a také pomocí technologií ovlivňovat společnost jako celek? Jakým způsobem bychom měli v tomto případě určit hranice etického a neetického využívání technologie? Jak určíme hranice autonomie člověka, které omezují zájmy celé společnosti? To jsou otázky, kterými se do budoucna budeme muset do hloubky zaobírat. Jednoduchá odpověď přitom neexistuje. I v teorii etiky existuje více přístupů, které odpovědi hledají jiným způsobem. Utilitaristé a konsekvencionalisté budou k problému přistupovat jinak než zastánci deontologie, kteří preferují jasná a pevná pravidla. Je možné, že nám v nalézání odpovědí pomohou i velká data, z nichž nějakým způsobem zjistíme, který přístup se ve které komunitě nejvíce osvědčil. Vždy ale musíme mít na paměti konečný cíl, ke kterému směřujeme, a tím je důraz na prospěch každého jednotlivého člověka a rozšiřování jeho autonomie tím, že mu poskytneme nejenom co největší množství informací, ale také vzdělání, které ho naučí informace hodnotit, a co nejširší možnosti volby.