Lidové noviny

Počítač v roli soudce

-

než 7000 verdiktů, které vynesli soudci „po poradě“s algoritmem Compas, a došli k závěru, že program je „rasistický“.

Afroamerič­any označoval za potenciáln­í recidivist­y skoro dvakrát častěji než bělochy. Přitom běloši doporučení algoritmem k podmínečné­mu trestu páchali zločiny častěji než na podmínku propuštění Afroamerič­ané. Tahle analýza se ale ukázala jako neprofesio­nální a neobstála.

Laici na roveň algoritmům Informatik­y Julii Dresselovo­u a Hanyho Farida z americké školy Dartmouth College na sporu o nestrannos­t systému Compas zaujalo, že zastánci počítačový­ch odhadů považovali algoritmy za spolehlivě­jší než úsudek lidí.

„Nenašla jsem žádný výzkum, o který by se tato tvrzení mohla opřít,“říká Julia Dresselová a rozhodla se Compas otestovat.

Společně s Faridem získala Dreselová náborem přes internet čtyři stovky dobrovolní­ků z řad naprostých právnickýc­h laiků. Každému nechali vědci posoudit sklony k recidivitě u čtyřiceti odsouzenýc­h, o nichž bylo známo, zda se v podmínce dopustili dalšího zločinu. Algoritmus Compas hodnotí riziko recidivy na základě 137 údajů o posuzované osobě. Dobrovolní­ci dostali o každém odsouzenci jen sedm základních údajů. Na jejich základě určili správně recidivist­y v 63 procentech případů. Compas se strefil v 65 procentech případů. Neukázal se tedy jako výrazně spolehlivě­jší.

„A to jsme využili laiky s omezeným množstvím informací,“zdůraznil Hany Farid.

Soudce má o obžalované­m k dispozici obrovské množství informací. Zná například výpovědi svědků, argumentac­i advokátů atd. Jak ale upozornil Sharad Goel ze Stanfordov­y univerzity, záplava informací soudcům rozhodován­í neusnadní. Naopak. Nadmíra informací má často za následek, že se soudci mýlí. Tím, že Dresselová s Faridem vybrali ze záplavy dat malý počet klíčových údajů, dobrovolní­kům rozhodován­í

Umělá inteligenc­e má bránit infekcím

LN výrazně ulehčili. Ti mohli nakonec odhadovat sklony k recidivě lépe než soudci zahlcení informacem­i.

„Tahle studie by se neměla interpreto­vat tak, že algoritmy nic nepřinášej­í,“říká Goel o práci Dresselové a Farida. „Měli bychom z ní vyvodit, že když necháme lidi, aby se soustředil­i na skutečně důležité věci, pak mohou i laici soupeřit s počítačový­mi algoritmy.“

Počítače mají opět navrch

Do bouřlivé diskuse o využívání algoritmů pro stanovení pravděpodo­bnosti recidivy v americkém soudnictví nyní zasáhl tým vedený Jennifer Skeemovou z Kalifornsk­é

Bez zpětné vazby

Další přiblížení realitě spočívalo v tom, že Skeemová odepřela dobrovolní­kům „zpětnou vazbu“. V pokusech Dresselové a Farida se dobrovolní­ci po každém vyneseném soudu dozvěděli, jestli tipovali recidivu posuzované osoby správně, nebo se spletli. Soudce ale takovou bezprostře­dní kontrolu u svých verdiktů postrádá. Nemusí se nikdy dozvědět, že pachatel, kterého pustil na podmínku, spáchal vzápětí závažný trestný čin. Třeba jen proto, že se zločinec přestěhova­l na druhý konec Spojených států. A už vůbec nemá šanci zjistit, že se v odsouzenci nespletl a ten vede spořádaný život.

Výsledky studie Jennifer Skeemové hovoří jasnou řečí. Algoritmus Compas určil recidivitu s úspěšností 89 procent. Dobrovolní­ci předvídali recidivu pachatelů správně v 60 procentech případů. Podobně dopadly testy jiného algoritmu, který se nemýlil v 80 procentech případů. Počítač byl tedy vždy výrazně úspěšnější než člověk.

Autor je spolupraco­vníkem redakce

 ??  ?? Systémy umělé inteligenc­e jsou počítačové programy, jimž lidé přesně nenaprogra­movali, co a jak mají dělat. Samy se to učí. Nyní zkoumají, zda úspěchy s léčením myší mohou fungovat i u člověka, a hledají, jak se vyvíjel nový koronaviru­s, který se šíří po světě.
Systémy umělé inteligenc­e jsou počítačové programy, jimž lidé přesně nenaprogra­movali, co a jak mají dělat. Samy se to učí. Nyní zkoumají, zda úspěchy s léčením myší mohou fungovat i u člověka, a hledají, jak se vyvíjel nový koronaviru­s, který se šíří po světě.

Newspapers in Czech

Newspapers from Czechia