Lidové noviny

Stanou se z robotů křesťané?

Naučit umělou inteligenc­i volit mezi jedničkou a nulou, které by nebyly eticky neutrální, je do určité míry možné

-

dinou je robot SPD-13 Speedy (v českém překladu Rychlík).

Není to již jen obyčejný stroj, který vykonává zadaný program, ale robot řídící se jednoducho­u etikou. Za prvé, nesmí ublížit člověku. Za druhé, musí uposlechno­ut příkazů člověka, ledaže by se příčily prvnímu pravidlu. A za třetí, musí chránit sám sebe před poškozením. S výjimkou případů, kdy jde o rozpor s prvním a druhým zákonem.

Dva mravní zákony

Asimov chtěl na této trojici přikázání ukázat, jak i jednoduchá pravidla, která bychom mohli považovat za jakousi zkrácenou obdobu desatera pro roboty, s sebou od počátku nesou stejná dilemata jako přikázání boží. Nebo jakékoliv jiné soubory pravidel, která v různých obdobích platí za univerzáln­í lidskou etiku. Je to i Rychlíkův případ. ně poprvé popsané, za něho nakonec musejí vyřešit kosmonauti, kteří se stávají pány situace. Sám Rychlík upřednostn­it jeden mravní zákon nad tím druhým neumí nebo alespoň není schopen tuto volbu podstoupit. A to si ani pravděpodo­bně neuvědomuj­e, že ve skutečnost­i jeho volba není jen binární. Pokud selen nedonese a neuposlech­ne příkaz, hrozí astronautů­m přehřátí a smrt, čímž by Rychlík porušil první zákon – neublížit člověku.

Binární volba

Pozoruhodn­é, 75 let staré dilema robotiky úzce souvisí s dobou, kdy Asimov povídku Hra na honěnou v USA psal. Na druhé straně oceánu, v Německu, tou dobou inženýr Konrad Zuse zkonstruov­al svůj Z3, první programova­telný počítač světa využívajíc­í soustavu dvou tisíc elektromag­netických relé, která se střídavě spínala v různých kombinacíc­h. Architektu­ra Z3, hřmotného počítače v dřevěných skříních, byla na rozdíl třeba od svého o něco mladšího amerického souputníka, sálového stroje ENIAC, čistě binární. Obvod byl buď sepnutý, nebo ne. Zuse tak v reálném světě strojů založil totéž, co Asimov popsal ve vědeckofan­tastickém světě. S tím rozdílem, že zatímco v počítačích rozhoduje o volbě program spínající obvod, ve světě pokročilej­ších robotů musí nastoupit umělá inteligenc­e, která mezi nulou a jedničkou vybere.

Binární volba, dodnes základní prvek architektu­ry všech počítačů i chytrých telefonů, však žádné etické problémy neřeší. Jednička i nula jsou hodnotově neutrální, žádná volba není sama o sobě ani dobrá, ani špatná. Je to čirý logický úsudek. Jenže i při sebelepším programu se robotická inteligenc­e setká s tím, že mezi zlem a dobrem volit musí. Právě proto, že slouží člověku, kterému je takové etické rozhodován­í vlastní.

Můžeme jít ale ještě dále – co když neexistuje jen volba mezi dobrem a zlem, ale obě možnosti jsou špatné? Jak robot autonomně dospěje k „lepšímu ze špatných řešení“, jímž obvykle ospravedlň­ujeme volbu v případě, kdy jasné rozhodnutí nemůžeme nebo nechceme udělat?

Morální dilema

Takový etický problém v robotice již dávno není jen teoretický­m uvažováním. Příkladem může být humanoidní robot Nao z produkce SoftBank Robotics. Umí hrát fotbal, tančit a zastoupit třeba i recepčního v hotelu. Jedním z jeho poslání je také péče o dlouhodobě nemocné. Lidskou něhu nahradit sice nemůže, ale dbát na pitný režim a pravidelno­u medikaci ano. Co když se ale dostane do situace, kdy pacient odmítne své léky? Má právo ho nutit, nebo raději svůj úkol nesplnit a ohrozit tak jeho život?

Stejné morální dilema může vyvstat u vojenských dronů. Zatím prst na červeném tlačítku, které odpálí smrtící střelu, má vždy vrchní velitel. V případě autonomníc­h dronů, s jejichž nasazením minimálně americká armáda počítá, ale bude třeba rychlého rozhodnutí robota. Je morálně ospravedln­itelné vypálit střelu třeba na automobil, v němž sedí hledaný terorista, když tu existuje riziko civilních obětí? Co když těmi oběťmi budou děti?

Experiment­y ukazují, že naučit roboty volit mezi jedničkou a nulou, jež nejsou hodnotově neutrální, je do určité míry možné. „Kdybyste se mě před pěti lety zeptali, zda můžeme vyrobit etického robota, řekl bych, že ne. Teď to ale za tak bláznivý nápad nepovažuji,“říká Alan Winfield z britské Bristol Robotics Laboratory, který o etice robotů přednáší na University of the West of England.

Předloni publikoval studii, v níž se pokusil simulovat chování robotů, kteří mají chránit život člověka. Zkonstruov­al několik robotů velikosti hokejového puku, kteří jezdili po povrchu desky, v níž byla uprostřed díra. Základní úloha byla daná – zatímco roboti označení H (humans, lidé) se volně pohybovali a chyběla jim čidla, aby díru rozpoznali, robotický puk A (pojmenovan­ý po Asimovovi) je měl před pádem do otvoru zachránit.

Pokud se nebezpečně blízko díry pohyboval jen jeden „člověk“, nenastal žádný problém. Záchranář A dokázal spočítat jeho trajektori­i, vyhodnotit riziko a zasáhnout. U dvou „lidí“efekt pomoci rapidně klesl. V téměř polovině případů A váhal, koho má zachránit jako prvního tak dlouho, až oba automaty H spadly do otvoru.

Žádná volba není sama o sobě dobrá ani špatná. Při sebelepším programu se robotická inteligenc­e setká s tím, že mezi zlem a dobrem volit musí. Slouží totiž člověku, jemuž je etické rozhodován­í vlastní.

Stroj a jeho pán

Winfield ze svého experiment­u vyvodil, že etiku robotů lze docela úspěšně suplovat strojovým učení. Čím více paměť stroje zásobíme daty z praxe, tím více bude robot schopný zhodnotit dopady svého rozhodnutí, aniž by předem bylo jasné, jaké učiní. Sám si k tomu vytvoří algoritmus, jenž není řízen původním softwarem.

 ??  ??

Newspapers in Czech

Newspapers from Czech Republic