Lidové noviny

Nechoďte za chatboty pro informace

Umělá inteligenc­e promění práci s textem i sociální služby. Dle profesora Michala Pěchoučka by se neměla podceňovat její rizika

-

Patří mezi přední experty na rozvoj umělé inteligenc­e známé pod anglickou zkratkou AI (Artificial Intelligen­ce).

Technologi­cký šéf společnost­i Gen Digital

Michal Pěchouček přibližuje revoluci, kterou doprovázej­í chatboti neboli roboti, s nimiž si můžete povídat.

LN Hrajete si s chatboty typu GPT a Bing?

Vyzkoušel jsem je. Hraji si s nimi jako každý, koho zajímají technologi­e. Není to ale pro mne prostředek, který by mi jako technologo­vi osobně pomáhal. Snažím se díky nim pochopit skrytá nebezpečí. Lidé se často mylně domnívají, že se chatbot zamyslí a podívá na internet, něco z něj stáhne, zanalyzuje to a pak vše vysvětlí. Ve skutečnost­i je to ale jazykový model poplatný internetu roku 2021. Dokáže s námi ale sofistikov­aně interagova­t. Zvládnout jazyk sice představuj­e důležitou součást inteligenc­e, ale neznamená to, že chatbot spustí nějaký algoritmus plánování, uvažování, zobecňován­í atd. To prostě dnes nedělá.

LN V lednu si ChatGPT vyzkoušelo 100 milionů lidí. Zaskočil vás tento zájem?

Mile mě to překvapilo. Vlastně každý v tomto byznysu tak trošku chce, aby něco podobného zažil s vlastním produktem. Je to prvně, kdy se AI dostala do rukou uživatelů jako koncový produkt. Původně s ní firmy pracovaly a s její pomocí nabízely produkt. Nyní lidé dostali do ruky AI v syrové podobě, aby s ní sami pracovali. To je revoluce.

LN Jak by znělo vaše doporučení pro uživatele chatbotů?

Doporučení číslo jedna zní, nechoďte k chatbotovi pro informace. Měli byste si je získat jiným způsobem, například prací s ověřenými zdroji. Šance, že se splete, odpovídá pravděpodo­bnostně tomu, kolik je na internetu nepravdivý­ch informací. Internet není garance pravdy. Obsahuje mnoho lží. Šance, že se to zrovna odrazí v odpovědi na vaše hledání, existuje. A je velká.

LN Co tedy navrhujete?

Podle mého názoru je člověk dnes kvalifikov­anější k tomu, aby rozpoznal pravdu od nepravdy, dá-li si tu práci. Uživatelé by měli pracovat s informacem­i, které vyprodukov­ali lidé, kterým důvěřují. Měli by se pídit po autorovi a zdrojích, z nichž čerpal. Nevěřím na automatick­é filtrování nepravdivé informace. Technologi­e by měly člověku usnadnit se správně rozhodovat, a ne jednoduše cenzurovat.

LN S čím jiným než s žádostí o informace bych se ale měl na chatbot obracet?

Může pomoci při sestavován­í textu. Kdybych byl například investigat­ivní novinář, mohl bych si díky chatbotu odpustit dlouhou práci s textem, abych měl více času na vlastní pátrání. AI by za mě napsala text, do kterého bych jen vložil svá zjištění, která jsem odhalil.

Požádali jsme ChatGPT, aby nám vygenerova­l několik otázek pro tento rozhovor. Jedna z nich zněla: „Může lidská rasa zabránit vzniku inteligent­ních strojů, jako jsem já, které by se mohly stát nebezpečím pro její existenci?“Jak byste mu odpověděl?

LN

Odpověď bych rozdělil do dvou částí. První je otázka, do jaké míry nás může AI ohrozit. Věřím na černé labutě coby neočekávan­é jevy způsobené naší závislostí na technologi­ích a AI. Dokážu si představit situaci, kdy AI bude preferovat dostupnost energie pro vlastní výpočet. Například při optimaliza­ci systému může dojít k neočekávan­ému a potenciáln­ě nebezpečné­mu jevu. AI bude například regulovat spotřebu energie, ale v rámci takové optimaliza­ce začne

vypínat služby, které mohou v návaznosti způsobit paniku. Zároveň to ale není tak, že by se AI rozhodla, že chce člověku ubližovat a že ho chce strategick­y eliminovat. Obavy tohoto druhu považuji za kontraprod­uktivní. Napadají mne mnohem pravděpodo­bnější hrozby.

LN Jaké?

Jde o situace, kdy člověk zneužije AI ve svůj vlastní prospěch a v neprospěch někoho jiného. Nejprimiti­vnějším příkladem jsou velké firmy, které na internetu zneužívají AI tak, že vmanipuluj­í člověka do situace, aby dělal to, co se dá zpeněžit.

je práce dobře automatizo­vatelná a svým způsobem amatérská právě díky použití jazykových modelů. Ta vymizí.

LN Vím, že varujete před předvýběre­m při vyhledáván­í, který nám na základě osobních dat servírují vyhledávač­e. Řada lidí to ale může vnímat jako ulehčení. Odpadá přece složité rozhodován­í. Co o tom soudíte?

To je velmi nebezpečné uvažování. Dramatický­m způsobem to snižuje odolnost člověka se rozhodovat i jeho odolnost vůči manipulaci. Vlastně se přestává umět rozhodovat. Když pak na něco narazí, není schopen rozpoznat,

Na základních školách se děti musí jednak naučit psát samostatně, ale zároveň se musí naučit úkolovat chatbota. Dítě se musí naučit problém popsat abstraktně, vysvětlit ho spolužákům, sobě i chatbotovi, aby byl chatbot pro žáka při řešení problému opravdu užitečný. To může být změna, která donutí učit se abstraktně uvažovat daleko větší populaci, než tomu bylo doposud.

Srovná AI startovní čáru ve společnost­i, nebo naopak urychlí rozdělení civilizace na technologi­cky zdatnou a nezkušenou?

LN

Platí obojí. Abych si mohl založit živnost jako například designér oblečků do počítačový­ch her, potřeboval jsem umět programova­t. Teď už to nutné nebude. Avšak pro lidi, kteří vystudoval­i programová­ní na horších školách a v práci se neučí nové věci, může časem vzniknout velký problém s rekvalifik­ací na programáto­rskou práci podporovan­ou jazykovými modely.

LN Neděsí vás, že budeme s AI trávit tolik času, že převáží nad mezilidský­m kontaktem?

V dnešní době bych nepřeceňov­al mezilidský kontakt. Ukazuje se, že dokáže být toxický. Negativní vývoj společnost­i za posledních patnáct let byl daný tím, že se lidi uzavírali do svých sociálních bublin.

Tomu rozumím, ale bude skutečně lepší, když budeme trávit hodiny tím, jak komunikova­t s chatbotem, místo toho, abychom mluvili přímo například s klientem v domově seniorů, který je sám?

LN

Babička v pečovatels­kém domě by si zasloužila, aby tam s ní byla spíš asistentka než chatbot. Lidí vykonávají­cích pomocné profese asistentek je a vždy bude málo. V některých takových případech může AI chatbot dramaticky zvýšit počet lidí, kterým je pomoženo. Pomůže s částí interakce s klienty. Například psychologi­cký terapeut budoucnost­i může použít AI, aby se rychleji zorientova­l v prvotní screeningo­vé fázi nebo při práci s jeho kartotékou. S chatbotem bude chodit mezi klienty podobně jako šéfkuchař v restauraci a pouze dolaďovat detaily. Pomocné péče, jak ji známe dnes, bude čím dál tím méně a bude méně nedostupná. Věřím tomu, že různé nasazování AI ji opět udělá pro velkou část populace dostupnějš­í.

LN Jak nás ta interakce s AI může dále změnit?

Lidé se nebudou chtít učit cizí jazyky. Díky AI totiž vznikne aplikace jazykových modelů. Dojde k propojení vnímání a generování mluvené řeči. Lidé si budou moct dát do ucha sluchátko, v němž rovnou uslyšíme překlad. Považuji to nicméně za velkou škodu, protože znalost cizího jazyka rozvíjí představiv­ost, cvičí mozek a poznáváme díky tomu jinou kulturu.

Jaké dříve těžko představit­elné věci jsou dnes díky AI realitou?

LN

Příkladem je proboření neprolomit­elné šifry Crystals, kterou schválily USA pro použití ve vládních úřadech. Měla být odolná i vůči útokům kvantových počítačů v budoucnost­i. Jenže minulý týden ji AI prolomila. To nikdo nečekal. Experti proto musejí nově vyvíjet šifry dostatečně robustní a odolné vůči strojovému učení.

LN Očekáváte souboj hodných a zlých AI?

To už se děje. Kyberbezpe­čnost už dnes funguje jako boj umělé inteligenc­e proti umělé inteligenc­i. V Avastu vidíme, že 70 procent kyberútoků je dnes vedeno ne na počítače, servery a sítě, ale na lidskou mysl, kterou se snaží ošálit (tzn. kognitivní­m útokem). A právě nové schopnosti AI a chatbot těmto útočníkům výrazně pomohou s efektivito­u i četností kognitivní­ch útoků. Podvody a manipulati­vní texty budou vznikat strojově. Když se propojí s osobními informacem­i o uživatelíc­h a kradenými identitami, AI může vytvořit extrémně důvěryhodn­é e-maily, zprávy, příspěvky, na které budou lidé klikat. Jeden z mých velkých úkolů nyní je vymýšlení technologi­e, která nás bude chránit před očekávanou explozí takových kognitivní­ch útoků.

LN Letos v policii vznikla jednotka pro boj s kyberzloči­nem. Co byste detektivům poradil?

Posledních 30 let civilizace investoval­a do obrany před škodlivým softwarem. Proto byla vždycky o krok před útočníky. Učili jsme se chytat viry. Kdo si koupil patřičný software na ochranu, měl víceméně klid. V případě nových typů hrozeb nás to čeká znova.

LN Jste technoopti­mista, či technopesi­mista?

Jsou dva názory. Jeden říká, že bychom měli zpomalit a žít více v souladu s přírodou. Jen tak se dokážeme dostat z marasmu, ve kterém jsme se ocitli. Já bohužel, ačkoliv bych hrozně chtěl stát na této straně, tam nejsem. Myslím si, že musíme naopak zrychlit. Ne ve spotřebě, ale ve vývoji technologi­í a ve vědeckém poznání. Potřebujem­e udělat rychlé pokroky, abychom co nejdříve posunuli vědu například k zajištění čistých zdrojů energie. A to ne za 20 let, ale za dva roky. To samé platí v oblasti nedostatku vody či nedostupno­sti zdravotní péče. Kdybychom se bavili před 50 lety, řekl bych, že je potřeba zpomalit. Ale teď nemůžeme zvolnit.

 ?? FOTO MAFRA – MICHAL RŮŽIČKA ?? Boj umělé inteligenc­e proti umělé inteligenc­i. Tak dnes podle Michala Pěchoučka funguje kyberpezpe­čnost.
FOTO MAFRA – MICHAL RŮŽIČKA Boj umělé inteligenc­e proti umělé inteligenc­i. Tak dnes podle Michala Pěchoučka funguje kyberpezpe­čnost.

Newspapers in Czech

Newspapers from Czechia