Пов­ста­н­ня ма­шин ска­со­ву­є­ться,

Або Як не­вда­лий екс­пе­ри­мент Facebook зі шту­чним ін­те­ле­ктом акту­а­лі­зу­вав дис­ку­сію про спів­існу­ва­н­ня ро­бо­тів та лю­дей

Den (Ukrainian) - - Суспільство - Ма­рія ЮЗИЧ

Дня­ми ЗМІ по­ши­ри­ли ін­фор­ма­цію про те, що Facebook за­кри­ла одну зі сво­їх си­стем шту­чно­го ін­те­ле­кту, яка на­чеб­то ство­ри­ла вла­сну, не­зро­зумі­лу мо­ву для спіл­ку­ва­н­ня між бо­та­ми.

Як по­ві­дом­ля­ло ви­да­н­ня Tech Times, шту­чний ін­те­лект ство­рив вла­сну мо­ву для то­го, щоб швид­ше та про­сті­ше обмі­ню­ва­ти­ся ін­фор­ма­ці­єю. Тож те­хно­ло­ги ком­па­нії за­кри­ли ча­сти­ну си­сте­ми і пе­ре­про­гра­му­ва­ли ін­ших бо­тів, щоб во­ни спіл­ку­ва­ли­ся ли­ше ан­глій­ською мо­вою.

Са­мі ж роз­ро­бни­ки Facebook роз­по­від­а­ли про своє до­слі­дже­н­ня ще в черв­ні. Ін­же­не­ри Ла­бо­ра­то­рії до­слі­дже­н­ня шту­чно­го ін­те­ле­кту Facebook ( FAIR) пра­цю­ва­ли над тим, щоб ство­ри­ти бо­тів, які зда­тні не про­сто за­бро­ню­ва­ти сто­лик чи про­ве­сти ко­ро­тку роз­мо­ву із ко­ри­сту­ва­чем, а про­во­ди­ли пе­ре­го­во­ри і до­ся­га­ли най­біль­шо­го ре­зуль­та­ту. На пер­шо­му ета­пі до­слі­дже­н­ня бо­ти спіл­ку­ва­ли­ся із лю­дьми, по­тім же ін­же­не­ри ви­рі­ши­ли зве­сти в діа­лог два бо­ти. Це при­зве­ло до то­го, що бо­ти по­ча­ли спіл­ку­ва­ти­ся не­зро­зумі­лою мо­вою, ви­да­ю­чи у від­по­відь один одно­му на­бір без­змі­стов­них фраз.

АЛГОРИТМ ЗА­МІСТЬ СВІДОМОСТІ

Як по­яснює ві­це- пре­зи­дент Global Logic Укра­ї­на Ан­дрій ЯВОРСЬКИЙ, на сьо­го­дні­шньо­му ета­пі роз­ви­тку те­хно­ло­гії ШІ ( шту­чно­го ін­те­ле­кту або ней­рон­ні сі­тки) не ста­нов­лять за­гро­зи для лю­дей. Адже це про­гра­ма, яка, ана­лі­зу­ю­чи ве­ли­ку кіль­кість да­них, про­пи­сує сце­на­рії роз­ви­тку си­ту­а­ції за рі­зних умов. «Бо­ти Facebook ана­лі­зу­ва­ли ве­ли­ку кіль­кість пе­ре­го­во­рів, які пе­ред цим бу­ли про­ве­де­ні лю­дьми, і ви­ра­хо­ву­ва­ли, за до­по­мо­гою яких фор­му­лю­вань бу­ло до­ся­гну­то най­біль­шо­го ре­зуль­та­ту», — по­яснює він.

Осо­бли­вість та­кої си­сте­ми по­ля­гає в то­му, ка­же Яворський, що під час роз­мо­ви із лю­ди­ною бот від­по­від­ав ви­хо­дя­чи із то­го, що йо­му бу­ло ска­за­но. Та­ким чи­ном, він ана­лі­зу- вав, який алгоритм є пра­виль­ним за да­ної умо­ви (від­по­віді лю­ди­ни). Ко­ли ж бо­ти по­ча­ли спіл­ку­ва­ти­ся між со­бою, то по­ча­ли ви­ко­ри­сто­ву­ва­ти ли­ше на­бір клю­чо­вих фраз, які ра­ні­ше при­зво­ди­ли до успі­ху в пе­ре­го­во­рах. При цьо­му во­ни не зва­жа­ли на те, що го­во­рить спів­бе­сі­дник (ін­ший бот). «Те, що ста­ло­ся між бо­та­ми Facebook, ще раз до­во­дить, що во­ни не ро­зумі­ли, про що го­во­рять і ви­ко­ри­сто­ву­ва­ли ба­зо­ві фор­му­лю­ва­н­ня, які вже за­сво­ї­ли і на­ма­га­ли­ся отри­ма­ти ма­кси­маль­ну кіль­кість ба­лів», — го­во­рить ві­це-пре­зи­дент Global Logic.

Він до­дає, що ма­те­ма­ти­чний апа­рат, який ле­жить в осно­ві ШІ, був роз­ро­бле­ний ще 30 ро­ків то­му.

Ін­фор­ма­цію про но­ву мо­ву бо­тів спро­сто­ву­ють і між­на­ро­дні на­у­ков­ці в га­лу­зі ШІ. До­слі­дник з Georgia Tech Дхрув БАТРА роз­кри­ти­ку­вав чи­ма­ло пу­блі­ка­цій в ЗМІ, які по­да­ли ін­фор­ма­цію про ре­зуль­та­ти екс­пе­ри­мен­ту FAIR в три­во­жно­му то­ні. «Не­зва­жа­ю­чи на те, що ідеї аген­тів AI, що ви­га­ду­ють вла­сну мо­ву, мо­жуть зда­ва­ти­ся три­во­жни­ми/не­спо­ді­ва­ни­ми для лю­дей по­за по­лем, це уста­ле­на під­гру­па AI, пу­блі­ка­ці­ям про яку вже де­ся­тки ро­ків», — на­пи­сав він у сво­є­му Facebook.

«На­ра­зі всі ал­го­ри­тми, а бу­дья­кий ШІ (або як прийня­то на­зи­ва­ти йо­го в ко­лі про­гра­мі­стів — ней­рон­ні ме­ре­жі) ство­рю­є­ться лю­ди­ною і про­цес пов­ні­стю кон­тро­лю­є­ться до­слі­дни­ка­ми, при­найм­ні на ета­пі ство­ре­н­ня», — по­яснює CEO & Founder в Sincere Tech Рон ФРІДМАН. Уча­сни­ки про­е­кту Sincere Tech ство­рю­ють ана­лі­ти­ку на осно­ві ней­рон­них мереж, ви­вча­ю­чи рі­зні біо­си­гна­ли лю­ди­ни.

На сьо­го­дні ней­рон­на ме­ре­жа роз­ро­бни­ків вміє по ЕКГ роз­пі­зна­ва­ти лю­ди­ну (біо­ме­три­чна іден­ти­фі­ка­ція), ви­зна­ча­ти емо­цій­ні ста­ни лю­ди­ни. Та­кож ко­ман­да пра­цює над ви­зна­че­н­ням та­ких хво­роб, як Альц­гей­ме­ра і Пар­кін­со­на на ран­ніх ста­ді­ях за да­ни­ми з рі­зних на­ру­чних бра­сле­тів (Samsung, Apple Watch, Xiaomi Mi Band і т.д).

МИРНЕ СПІВ­ІСНУ­ВА­Н­НЯ

Ре­зуль­та­ти екс­пе­ри­мен­ту із бо­та­ми Facebook в чер­го­вий раз акту­а­лі­зу­ють дис­ку­сію про те, як люд­ству спів­існу­ва­ти із те­хно­ло­гі­я­ми май­бу­тньо­го і шту­чним ін­те­ле­ктом. Одна із та­ких су­пе­ре­чок не­що­дав­но ви­ни­кла між Іло­ном Ма­ском та Мар­ком Цу­кер­бер­гом. Тво­рець Tesla не­що­дав­но за­явив, що роз­ви­ток шту­чно­го ін­те­ле­кту по­трі­бно ре­гу­лю­ва­ти на уря­до­во­му рів­ні. На­то­мість Марк Цу­кер­берг на­звав по­зи­цію Ма­ска « без­від­по­від­аль­ною » . « Будь- яка те­хно­ло­гія мо­же зав­жди ви­ко­ри­сто­ву­ва­ти­ся для хо­ро­ших і по­га­них ці­лей, і ви по­вин­ні бу­ти обе­ре­жні, ко­ли ство­рю­є­те її » , — за­зна­чив Цу­кер­берг.

На дум­ку Ро­на Фрі­дма­на, одна із ре­аль­них за­гроз, які на сьо­го­дні ство­рю­ють ШІ для люд­ства — це мас­шта­бна ав­то­ма­ти­за­ція ви­ро­бництв по всьо­му сві­ті. « Па­ра­докс, бі­знес стає ефе­ктив­ні­шим з одно­го бо­ку, але й зро­стає без­ро­бі­т­тя. Це ду­же фі­ло­соф­ська ди­ле­ма, що ро­би­ти з лю­дьми, чиї про­фе­сії ста­ють про­сто не­по­трі­бни­ми в су­ча­сно­му сві­ті», — го­во­рить він.

Всі ж ін­ші за­гро­зи бу­дуть за­ле­жать від то­го, з яки­ми на­мі­ра­ми те­хно­ло­ги бу­дуть роз­ви­ва­ти свої роз­роб­ки на осно­ві ШІ. «Ко­ли ми ство­рю­є­мо но­вий алгоритм, то тіль­ки ми ви­рі­шу­є­мо як він бу­де пра­цю­ва­ти. Ней­рон­на ме­ре­жа — про­сто ви­рі­шує по­став­ле­не зав­да­н­ня, і якщо, при­пу­сти­мо сто­їть зав­да­н­ня на­вчи­ти ней­рон­ну ме­ре­жу розуміти якусь мо­ву, то в про­це­сі на­вча­н­ня во­на мо­же ви­ко­ри­сто­ву­ва­ти до­по­мі­жну мо­ву (не­зро­зумі­лу лю­ди­ні), для ви­рі­ше­н­ня та­ко­го зав­да­н­ня. Та­кий під­хід називають ще чор­ним ящи­ком, ко­ли ми са­мі до кін­ця не ро­зу­мі­є­мо, що від­бу­ва­є­ться все­ре­ди­ні на­шої ней­рон­ної ме­ре­жі», — ка­же Фрідман.

На дум­ку Ан­дрія Явор­сько­го, в май­бу­тньо­му із роз­ви­тком ШІ лю­дям бу­де скла­дно на­ма­га­ти­ся кон­тро­лю­ва­ти те, що по­тен­цій­но мо­же ста­ти ро­зум­ні­шим за них. Він про­по­нує звер­ну­ти ува­гу на те, як лю­дям вчи­ти­ся спів­існу­ва­ти із шту­чним ін­те­ле­ктом.

«По­трі­бно їх на­вчи­ти так, щоб лю­ди­на ма­ла для них цін­ність. І по­ки що на сьо­го­дні не­має єди­ної стра­те­гії то­го, як це пра­виль­но зро­би­ти. Але перш за все, по­трі­бно да­ти для цих ро­бо­тів при­клад мо­раль­но-ети­чної по­ве­дін­ки, яку, на жаль, сьо­го­дні усві­дом­лю­ють не всі лю­ди. У нас до­сі не­має єди­но­го по­ня­т­тя то­го, що пра­виль­но, а що ні. В та­ко­му ра­зі по­стає пи­та­н­ня, як те­хно­ло­гії бу­дуть розуміти ці по­ня­т­тя і які рі­ше­н­ня во­ни при­йма­ють. На­при­клад, чи ска­же ро­бот-лі­кар па­ці­єн­ту ін­фор­ма­цію, яка мо­же йо­му за­шко­ди­ти? Це пи­та­н­ня ле­жить в пло­щи­ні біль­ше фі­ло­соф­ській, і ми по­ба­чи­мо, як люд­ство бу­де з цим справ­ля­ти­ся», — під­cу­мо­вує він.

УКРА­ЇН­СЬКИЙ КОН­ТЕКСТ

Не­що­дав­но укра­їн­ський стар­тап Grammarly за­лу­чив 110 млн до­ла­рів ін­ве­сти­цій, по­ві­дом­ля­ло ви­да­н­ня AIN. Grammarly — це ін­те­ле­кту­аль­ний он­лайн- сер­віс пе­ре­вір­ки гра­ма­ти­ки, за­сно­ва­ний на те­хно­ло­гі­ях шту­чно­го ін­те­ле­кту. Він під­ви­щує якість пи­сьмо­во­го спіл­ку­ва­н­ня, вра­хо­ву­ю­чи ін­ди­ві­ду­аль­ний стиль ко­ри­сту­ва­ча і йо­го ко­му­ні­ка­тив­ні ці­лі.

За сло­ва­ми Ро­на Фрі­дма­на, сьо­го­дні те­хно­ло­гії, які ба­зу­ю­ться на те­хно­ло­гії ШІ, за­сто­со­ву­ю­ться в най­рі­зно­ма­ні­тні­ших га­лу­зях — від ме­ди­ци­ни до юри­спру­ден­ції.

«Бі­знес зро­зу­мів по­тен­ці­ал ці­єї те­хно­ло­гії, во­на ста­ла до­сту­пною як для роз­ро­бни­ків (з’яви­ло­ся ба­га­то го­то­вих рі­шень, так зва­них бі­бліо­тек або фрейм­вор­ків), так і для кін­це­во­го ко­ри­сту­ва­ча це ста­ло де­шев­ше і про­сті­ше впро­ва­ди­ти», — по­яснює він.

А як роз­по­від­ає Ан­дрій Яворський, на сьо­го­дні укра­їн­ські роз­ро­бни­ки в га­лу­зі роз­роб­ки ШІ пра­цю­ють в рів­них умо­вах із за­кор­дон­ним ін­же­не­ра­ми. «Роз­ро­бни­ки у всьо­му сві­ті, зокре­ма, і в Укра­ї­ні пра­цю­ють на ней­рон­них сі­тках. І на­віть Google від­кри­ває open sourсe (від­кри­те про­грам­не за­без­пе­че­н­ня), який рі­зні про­гра­мі­сти мо­жуть ви­ко­ри­сто­ву­ва­ти для сво­їх потреб. Пи­та­н­ня в то­му, хто для яких ці­лей ви­ко­ри­сто­вує цей ре­сурс. На­при­клад, не­що­дав­но по­пу­ляр­ним став, на­при­клад сер­віс Teleport (до­да­ток для фар­бу­ва­н­ня во­лос­ся на фо­то­гра­фії. — Ред.), який теж ба­зу­є­ться на те­хно­ло­гі­ях ШІ і вга­дує, яку са­ме ча­сти­ну фо­то­гра­фії по­трі­бно фар­бу­ва­ти», — ка­же він.

ФО­ТО РУСЛАНА КАНЮКИ / «День»

Newspapers in Ukrainian

Newspapers from Ukraine

© PressReader. All rights reserved.