Budou zbraně myslet?
Spojené státy americké přiznaly, že na Blízkém východě používají při bojových operacích umělou inteligenci (AI). Konkrétně mělo jít o nálety proti iráckým radikálům ze začátku února, pro které dle šéfky technologické sekce amerického generálního štábu Schuyler Mooreové využily „počítačové vidění sloužící k odhalení hrozeb“.
Přeloženo do češtiny, Američané používají jakýsi chytrý počítačový program, který umí vyhodnotit, které cíle je záhodno bombardovat a které nechat být. Jak přesně to algoritmus dělá, pochopitelně neprozradili, ale lze se domnívat, že analyzuje databázi dříve zpracovaných dat, tedy například videí pořízených drony, fotek ze satelitů a tak dále. Nakonec americká letadla zasáhla téměř 85 cílů a zdá se pravděpodobné, že jejich předvýběr zajistila právě AI.
Do bojujících robotů ve stylu Hvězdných válek to má daleko. I tak ale jde o přelomovou událost – až doteď totiž Američané AI používali pouze v rámci výcviku a pro počítačové simulace, například virtuální válečné hry. Jejich použití pro zpravodajské účely sice známé bylo, ale nikoli při bojových operacích. Jde tak o první potvrzený případ, kdy lidé v letadlech bombardovali cíle, které jim určil počítač.
Riziko této nové role umělé inteligence se zdá zjevné. Pokud počítačový program skutečně vyhodnocuje cíle na základě uložené databáze, kde je psáno, že se nemůže zmýlit? Kdo zaručí, že sklad munice nezamění třeba za mateřskou školku? A co třeba v bojových zónách typu Pásma Gazy, kde díky zvrácenosti teroristů z Hamásu školka a sklad zbraní často jedno jsou? Jak takový cíl vyhodnotí umělá inteligence? A co na to člověk, který ji bude dozorovat? Dokáže chybu včas zpozorovat a předejít neštěstí? Ostatně, ani člověk není neomylný a chybovat je lidské, jak praví okřídlené úsloví.
Spíš doplnění pilota
Riziko nové role umělé inteligence se zdá zjevné. Pokud počítačový program vyhodnocuje cíle na základě databáze, kde je psáno, že se nemůže zmýlit? Kdo zaručí, že sklad munice nezamění třeba za mateřskou školku?
Pojďme ještě dál. Víme například, že americké letectvo už provedlo několik úspěšných testů plně automatizovaných stíhaček. Například v prosinci 2022 vzlétla z vojenské základny nedaleko Los Angeles speciálně upravená verze letadla F-16 „Fighting Falcon“– počítač s ní úspěšně provedl několik vysoce pokročilých leteckých manévrů a následně ji bezpečně provedl přestřelkou s dalším letounem. Ano, v jejím kokpitu stále ještě seděl člověk – šlo však o technika školeného na práci s umělou inteligencí, nikoli o pilota. Stroj se následně bez jediného škrábnutí vrátil na základnu.
Jistě, experti na AI stále tvrdí, že stroje jsou podobných výkonů schopné pouze díky dozoru lidí a provozu počítačů, které ve výsledku opět kontrolují lidé. I pro bojové mise se v blízké budoucnosti nepočítá ani tak s nahrazením pilota počítačem jako spíš s doplněním pilota o nové schopnosti – o jakési ulehčení práce. Má to prý být něco jako spolupráce člověka a koně v tradiční koncepci vojenské kavalerie. Člověk – například kyrysník – se soustředí na taktické manévry a zasažení nepřítele, zatímco kůň jej rychle dopraví z místa na místo. Stále nám ale zbývá otázka: co se stane, když se kůň splaší?