ИТ ум­не­ют: от обу­ча­е­мых «ве­щей» до циф­ро­вых ин­струк­то­ров по от­ка­зу от ку­ре­ния

Otkrytye sistemy. SUBD. - - СОДЕРЖАНИЕ - Лео­нид Чер­няк

Алек­сандр Ты­рен­ко

Темы май­ско­го, июнь­ско­го, июль­ско­го и ав­гу­стов­ско­го но­ме­ров жур­на­ла Computer (IEEE Computer Society, Vol. 51, No. 5–8, 2018) — сред­ства ма­шин­но­го обу­че­ния для мо­биль­ных и встро­ен­ных си­стем, «наука о Все­мир­ной па­у­тине», про­бле­ма до­ве­рия устрой­ствам Ин­тер­не­та ве­щей и циф­ро­вые кон­суль­тан­ты в сфе­ре ме­ди­ци­ны.

Нор­веж­ский ис­сле­до­ва­тель пред­ло­жил но­вый под­ход к ма­шин­но­му обу­че­нию, ос­но­вы­ва­ясь на ра­бо­тах со­вет­ско­го уче­но­го, тео­ре­ти­че­ские ис­сле­до­ва­ния ко­то­ро­го на пол­ве­ка опе­ре­ди­ли свое вре­мя.

Клю­че­вые сло­ва: глу­бин­ное обу­че­ние, ис­кус­ствен­ный ин­тел­лект, ней­рон­ные се­ти Keyworsds: Deep learning, Artificial intelligence, Neural networks

Вос­но­ве ны­неш­не­го бу­ма ма­шин­но­го обу­че­ния ле­жат идеи, хо­ро­шо из­вест­ные еще с кон­ца 1980-х го­дов и воз­ник­шие, ско­рее все­го, из-за неудач с экс­перт­ны­ми си­сте­ма­ми, вы­звав­ших «вто­рую зи­му ис­кус­ствен­но­го ин­тел­лек­та». Вы­ра­же­ни­ем этих идей ста­ло то, что от под­хо­дов, ос­но­ван­ных на по­пыт­ках ка­ким-то об­ра­зом пе­ре­дать ма­шине зна­ния (knowledge-driven approach), про­изо­шел сдвиг к под­хо­дам, ос­но­ван­ным на обу­че­нии ней­рон­ных се­тей по пред­ла­га­е­мым при­ме­рам (data-driven approach). Ре­ша­ю­щим фак­то­ром бы­ло от­кры­тие в 1986 го­ду об­рат­но­го рас­про­стра­не­ния ошиб­ки обу­че­ния (backprop), сде­лан­ное Джеф­ф­ри Хин­то­ном, «крест­ным от­цом глу­бин­но­го обу­че­ния». Но трид­цать лет на­зад про­рыв ма­шин­но­го обу­че­ния в прак­ти­ку не слу­чил­ся — тео­ре­ти­че­ское обос­но­ва­ние backprop опе­ре­ди­ло имев­ши­е­ся то­гда по­треб­но­сти и воз­мож­но­сти, за­то к на­сто­я­ще­му вре­ме­ни сло­жи­лись все усло­вия для мас­со­во­го рас­про­стра­не­ния глу­бин­но­го ма­шин­но­го обу­че­ния (deep learning).

• В 2006 го­ду Джеф­ф­ри Хин­тон, про­фес­сор Уни­вер­си­те­та То­рон­то, опуб­ли­ко­вал ста­тью «A Fast Learning Algorithm for Deep Belief», в ко­то­рой по­ка­зал пре­иму­ще­ства глу­бин­но­го обу­че­ния, до­сти­жи­мые за счет уве­ли­че­ния числа сло­ев в се­ти. К это­му вре­ме­ни вокруг него об­ра­зо­ва­лось спло­чен­ное со­об­ще­ство, ко­то­рое уже несколь­ко лет ра­бо­та­ло «в неви­ди­мом ре­жи­ме». Его участники на­зы­ва­ли се­бя «за­го­вор­щи­ка­ми глу­бин­но­го обу­че­ния» (Deep Learning Conspiracy) или да­же «ка­над­ской ма­фи­ей»; ли­де­ра­ми со­об­ще­ства ста­ли Ян Ле­кун, Ие­шуа Бен­джо и Джеф­ф­ри Хин­тон. Эстафета бы­ла под­хва­че­на, и се­год­ня ис­сле­до­ва­ни­я­ми, свя­зан­ны­ми с глу­бин­ным обу­че­ни­ем, во всем ми­ре за­ни­ма­ют­ся бо­лее 10 тыс. че­ло­век. • В 2009 го­ду ис­сле­до­ва­тель из Ст­эн­форд­ско­го уни­вер­си­те­та Эн­д­рю Ынг, ныне ру­ко­во­ди­тель ис­сле­до­ва­тель­ско­го под­раз­де­ле­ния Baidu, в ста­тье «Large-scale Deep Unsupervised Learning using Graphics Processors» про­де- мон­стри­ро­вал, как мож­но уско­рить обу­че­ние се­ти с по­мо­щью гра­фи­че­ских про­цес­со­ров: «Гра­фи­че­ские про­цес­со­ры мо­гут обес­пе­чи­вать бо­лее мел­ко­струк­тур­ный па­рал­ле­лизм, чем су­ще­ству­ю­щие мно­го­ядер­ные про­цес­со­ры или рас­пре­де­лен­ные кла­сте­ры. Они спро­ек­ти­ро­ва­ны в рас­че­те на под­держ­ку ты­сяч по­то­ков с рас­пре­де­ле­ни­ем их по сот­ням ядер при незна­чи­тель­ных на­клад­ных рас­хо­дах». Се­год­ня GPU ста­ли ос­нов­ной плат­фор­мой для си­стем глу­бин­но­го обу­че­ния (80% всех ин­стал­ля­ций), хо­тя уже за­мет­ная до­ля при­над­ле­жит FPGA и ASIC.

• На ны­неш­нем уровне для обу­че­ния се­тей тре­бу­ют­ся боль­шие объ­е­мы дан­ных. До недав­не­го вре­ме­ни это бы­ло про­бле­мой, но сей­час си­ту­а­ция заметно из­ме­ни­лась — се­год­ня обу­ча­ю­щих дан­ных ве­ли­кое мно­же­ство (изоб­ра­же­ния, оциф­ро­ван­ные тек­сты и т. д.). Бо­лее то­го, воз­ник­ло встреч­ное дви­же­ние, вы­зван­ное по­треб­но­стью кор­по­ра­ций в ана­ли­зе боль­ших объ­е­мов дан­ных: ра­бо­ты по глу­бин­но­му обу­че­нию уже с пер­вых ша­гов бы­ли под­дер­жа­ны со сто­ро­ны Google, Facebook и Microsoft, а пра­ви­тель­ства раз­лич­ных го­су­дарств ста­ли ак­тив­но фи­нан­си­ро­вать со­от­вет­ству­ю­щие гран­ты.

Се­год­ня глу­бин­ное обу­че­ние ак­тив­но внед­ря­ет­ся в са­мые раз­ные сфе­ры де­я­тель­но­сти, поз­во­ляя спе­ци­а­ли­стам срав­ни­вать про­ис­хо­дя­щее сей­час не столь­ко с пер­вы­ми дву­мя вол­на­ми ис­кус­ствен­но­го ин­тел­лек­та 70-х и 90-х го­дов, сколь­ко с ин­тер­нет­пу­зы­рем 2000 го­да.

В су­ще­ству­ю­щих си­сте­мах глу­бин­но­го обу­че­ния обработка про­ис­хо­дит в два эта­па: на пер­вом идет обу­че­ние (training), а на вто­ром вы­но­сит­ся за­клю­чи­тель­ное суж­де­ние (inference). Ре­зуль­тат пер­во­го — про­грам­ма, ко­то­рая за­тем вы­пол­ня­ет­ся на цен­траль­ных про­цес­со­рах тра­ди­ци­он­ной ар­хи­тек­ту­ры. То есть учит­ся не ком­пью­тер, а ра­бо­та­ю­щая на нем про­грам­ма. В ито­ге скла­ды­ва­ет­ся некий пал­ли­а­тив, что-то на­по­до­бие кон­ки — уже гу­же­вой ом­ни­бус, но еще не элек­три­че­ский трам­вай.

Оче­вид­но, что ны­неш­няя схе­ма с учи­те­лем, со­сто­я­щая из обу­че­ния и суж­де­ния, не веч­на; сво­е­го раз­ви­тия тре­бу­ют под­хо­ды к обу­че­нию без учи­те­ля. Ско­рее все­го, бу­ду­щее бу­дет свя­за­но с раз­ви­ти­ем ап­па­рат­но­го обес­пе­че­ния, с пе­ре­хо­дом на FPGA, ASIC, ней­ро­морф­ные или кван­то­вые про­цес­со­ры. В лю­бом слу­чае с пе­ре­но­сом ло­ги­ки в же­ле­зо удаст­ся дей­стви­тель­но во­пло­тить в жизнь опре­де­ле­ние ма­шин­но­го обу­че­ния, дан­ное его ос­но­во­по­лож­ни­ком Ар­ту­ром Са­му­элем еще в 1959 го­ду: «Машинное обу­че­ние — это об­ласть ис­сле­до­ва­ний, на­прав­лен­ная на то, что­бы снаб­дить ком­пью­тер спо­соб­но­стью обу­чать­ся без яв­но­го про­грам­ми­ро­ва­ния».

Но ней­рон­ные се­ти, мо­де­ли­ру­ю­щие мозг че­ло­ве­ка, — не един­ствен­ный ме­тод реализации ма­шин­но­го обу­че­ния. Ши­ро­ко из­вест­на, к при­ме­ру, до­ста­точ­но про­стая, но обу­чав­ша­я­ся про­хо­дить ла­би­рин­ты мыш­ка Те­зей, со­здан­ная Кло­дом Шен­но­ном в 1952 го­ду. Как бы ни бы­ло раз­ви­то про­грам­ми­ро­ва­ние, на ка­ких бы но­вых язы­ках ни пи­са­лись про­грам­мы, они обес­пе­чи­ва­ют жест­кое управ­ле­ние, при ко­то­ром

Ми­ха­ил Ль­во­вич Цет­лин или во­все не преду­смот­ре­на об­рат­ная связь со сре­дой, или же она весь­ма огра­ни­че­на. Ки­бер­не­ти­че­ский под­ход к обу­че­нию сви­де­тель­ству­ет о схо­же­сти про­цес­сов пе­ре­хо­да от про­грамм­но­го управ­ле­ния к управ­ле­нию по об­рат­ной свя­зи в тех­ни­че­ских, био­ло­ги­че­ских и со­ци­аль­ных си­сте­мах с на­ме­ча­ю­щим­ся пе­ре­хо­дом от про­грам­ми­ро­ва­ния ком­пью­те­ров к их обу­че­нию. По утвер­жде­нию ла­у­ре­а­та Но­бе­лев­ской пре­мии Гер­бер­та Сай­мо­на, обу­че­ни­ем мо­жет быть лю­бой про­цесс, по­вы­ша­ю­щий за­ин­те­ре­со­ван­ность лю­бой си­сте­мы в получении опы­та, зна­ний или впе­чат­ле­ний [1]. Оо­бу­че­ние есть не что иное, как усо­вер­шен­ство­ва­ние объ­ек­та или субъ­ек­та за счет вза­и­мо­дей­ствия по об­рат­ной свя­зи с внеш­ней сре­дой, а это и есть пред­мет ки­бер­не­ти­ки.

По­иск ки­бер­не­ти­че­ских под­хо­дов к обу­че­нию при­во­дит к ра­бо­там Ми­ха­и­ла Ль­во­ви­ча Цет­ли­на (1924–1966), преж­де все­го к ста­тье «О по­ве­де­нии ко­неч­ных ав­то­ма­тов в слу­чай­ных сре­дах» (жур­нал «Ав­то­ма­ти­ка и те­ле­ме­ха­ни­ка», 1961, том 22, вы­пуск 10, стр. 1345–1354), а та­к­же к кни­ге «Ис­сле­до­ва­ние по тео­рии ав­то­ма­тов и мо­де­ли­ро­ва­нию био­ло­ги­че­ских си­стем».

Цет­лин — не толь­ко один из пред­ста­ви­те­лей пле­я­ды вы­да­ю­щих­ся ма­те­ма­ти­ков-ки­бер­не­ти­ков 50–70-х го­дов, уче­ник Из­ра­и­ля Мо­и­се­е­ви­ча Гель­фанда, но и че­ло­век уди­ви­тель­ной био­гра­фии. Фрон­то­вик-раз­вед­чик, на­граж­ден­ный ме­да­лью «За от­ва­гу» и ор­де­ном Крас­ной Звез­ды, он еще и по­сле вой­ны слу­жил в ар­мии, по­это­му смог воз­об­но­вить уче­бу в МГУ толь­ко в 1947 го­ду. Ра­бо­ту на за­во­де он сов­ме­щал с на­у­кой, но, оста­вив ка­рье­ру ин­же­не­ра, вер­нул­ся ас­пи­ран­том на физ­фак, за­щи­тил дис­сер­та­цию, ос­но­ван­ную на его сту­ден­че­ских на­ра­бот­ках, вы­пол­нен­ных под ру­ко­вод­ством Гель­фанда, и был при­гла­шен Алек­се­ем Ан­дре­еви­чем Ля­пу­но­вым [2] в Ма­те­ма­ти­че­ский ин­сти­тут АН СССР. С 1956 по 1961 год Цет­лин за­ни­мал­ся во­про­са­ми био­ло­гии и ме­ди- ци­ны, а за­тем ав­то­ма­ти­за­ци­ей мо­де­ли­ро­ва­ния био­ло­ги­че­ских, эко­но­ми­че­ских и со­ци­аль­ных си­стем. Ки­бер­не­ти­ке в чи­стом ви­де он от­дал все­го пять лет. Как уче­ный и как че­ло­век Цет­лин ин­те­рес­но пред­став­лен в ста­тье «М.Л. Цет­лин и раз­ви­тие ма­те­ма­ти­че­ско­го мо­де­ли­ро­ва­ния в СССР», опуб­ли­ко­ван­ной в 2015 го­ду про­фес­со­ром Том­ско­го уни­вер­си­те­та В.И. Ле­ви­ным.

Цет­лин ра­бо­тал над со­зда­ни­ем тех­ни­че­ских устройств, ко­то­рые мог­ли бы де­мон­стри­ро­вать це­ле­со­об­раз­ное по­ве­де­ние в слу­чай­ных сре­дах. Пред­по­сыл­ка­ми ис­сле­до­ва­ний ста­ли преж­ние ра­бо­ты Цет­ли­на, свя­зан­ные с изу­че­ни­ем по­ве­де­ния под­опыт­ных жи­вот­ных. Он изу­чал по­ве­де­ние ав­то­ма­та как жи­вот­но­го, кон­так­ти­ру­ю­ще­го со сре­дой, ко­то­рая в за­ви­си­мо­сти от его по­ве­де­ния на­ка­зы­ва­ла или по­ощ­ря­ла, при этом ав­то­мат мог обу­чать­ся, то есть стре­мить­ся к умень­ше­нию числа на­ка­за­ний за счет из­ме­не­ния сво­е­го внут­рен­не­го со­сто­я­ния. Для до­ка­за­тель­ства ис­поль­зо­вал­ся аппарат це­пей Мар­ко­ва.

Пер­вой кон­струк­ци­ей был ав­то­мат с ли­ней­ной так­ти­кой — ав­то­мат с дву­мя со­сто­я­ни­я­ми, ко­то­рый в од­ном со­сто­я­нии вы­да­ет на вы­хо­де сиг­нал о том, что он со­вер­ша­ет дей­ствие d1, в дру­гом — о том, что он со­вер­ша­ет дей­ствие d2. За оши­боч­ное дей­ствие ав­то­мат штра­фу­ет­ся и пе­ре­во­дит­ся в дру­гое со­сто­я­ние, а за вер­ное по­ощ­ря­ет­ся и со­хра­ня­ет свое со­сто­я­ние, по­сле че­го дей­ствие по­вто­ря­ет­ся.

Обу­ча­ю­щий­ся ав­то­мат дол­жен ми­ни­ми­зи­ро­вать сум­мар­ный штраф за все вре­мя сво­ей жиз­ни. Про­стей­ший ав­то­мат пре­вра­ща­ет­ся в ав­то­мат с ли­ней­ной так­ти­кой по­сле то­го, как уве­ли­чи­ва­ет­ся ко­ли­че­ство со­сто­я­ний, в ко­то­рых он вы­пол­ня­ет оди­на­ко­вое дей­ствие. С со­вре­мен­ных по­зи­ций ра­бо­ты Цет­ли­на мож­но от­не­сти к обу­че­нию с под­креп­ле­ни­ем (reinforcement learning), ко­гда мо­дель обу­ча­ет­ся по об­рат­ной свя­зи при вза­и­мо­дей­ствии с внеш­ней сре­дой.

Бо­лее по­лу­ве­ка тру­ды Цет­ли­на оставались из­вест­ны лишь уз­ко­му кру­гу оте­че­ствен­ных ис­сле­до­ва­те­лей, в ан­гло­языч­ной ста­тье «Ви­ки­пе­дии», по­свя­щен­ной reinforcement learning, его имя да­же не на­зы­ва­ет­ся; прав­да, в немно­гих за­ру­беж­ных ис­точ­ни­ках мож­но встре­тить упо­ми­на­ние о Tsetlin Automata. Од­на­ко в ап­ре­ле 2018 го­да вы­шла ра­бо­та Гран­но Оле-кри­сто­фе­ра, про­фес­со­ра нор­веж­ско­го Уни­вер­си­те­та Аг­де­ра, ди­рек­то­ра Цен­тра ис­сле­до­ва­ний в области ис­кус­ствен­но­го ин­тел­лек­та, име­ю­щая необыч­ный за­го­ло­вок «Ма­ши­на Цет­ли­на. Тео­ре­ти­ко-иг­ро­вой бан­дит­ский под­ход к оп­ти­маль­но­му рас­по­зна­ва­нию об­ра­зов с про­по­зи­ци­о­наль­ной ло­ги­кой» («The Tsetlin Machine — A Game Theoretic Bandit Driven Approach to Optimal Pattern Recognition with Propositional Logic»). С бан­ди­тиз­мом этот под­ход, ко­неч­но, не име­ет ни­че­го общего — это про­сто ме­та­фо­ра. Од­на­ко ра­бо­ты Цет­ли­на ста­ли им­пуль­сом к раз­ви­тию тео­рии мно­го­ру­ких бан­ди­тов, на­зван­ных так по ана­ло­гии с «од­но­ру­ки­ми бан­ди­та­ми», уста­нав­ли­ва­е­мы­ми в ка­зи­но: в тео­рии ве­ро­ят­но­стей за­да­чей мно­го­ру­ко­го бан­ди­та на­зы­ва­ют за­да­чу, в ко­то­рой огра­ни­чен­ный на­бор ре­сур­сов необ­хо­ди­мо рас­пре­де­лить меж­ду про­ти­во­бор­ству­ю­щи­ми сто­ро­на­ми.

В сво­ей ста­тье Оле-кри­сто­фер по­ка­зал, как мож­но скон­стру­и­ро­вать са­мо­обу­ча­е­мую ма­ши­ну на пред­ло­жен­ных Цет­ли­ным прин­ци­пах в со­че­та­нии с про­по­зи­ци­о­наль­ной ло­ги­кой (раздел сим­во­ли­че­ской ло­ги­ки, изу­ча­ю­щий об­ра­зо­ван­ные из про­стых слож­ные вы­ска­зы­ва­ния и их вза­и­мо­от­но­ше­ния). «Скром­но» на­звав соб­ствен­ную ра­бо­ту про­рыв­ной, ав­тор утвер­жда­ет, что разработанная им ма­ши­на Цет­ли­на по­стро­е­на на прин­ци­пах, в корне от­лич­ных от всех из­вест­ных под­хо­дов к реализации ис­кус­ствен­но­го ин­тел­лек­та, при­чем са­ма ма­ши­на уже в ря­де экс­пе­ри­мен­тов по­ка­за­ла луч­шие ре­зуль­та­ты, чем аль­тер­на­тив­ные под­хо­ды. По мне­нию Оле-кри­сто­фе­ра, ма­ши­на Цет­ли­на ста­нет качественно но­вым ин­стру­мен­том для рас­по­зна­ва­ния об­ра­зов, ра­бо­ты с язы­ка­ми, ре­ше­ния за­дач ди­а­гно­сти­ки и пла­ни­ро­ва­ния, а отказ от ней­рон­ных се­тей в поль­зу ло­ги­ки поз­во­лит ис­поль­зо­вать для при­ло­же­ний ис­кус­ствен­но­го ин­тел­лек­та обыч­ные уни­вер­саль­ные ком­пью­те­ры. Ве­ро­ят­ность то­го, что ма­ши­на Цет­ли­на со­ста­вит кон­ку­рен­цию ней­рон­ным се­тям, по­ка неве­ли­ка, но при лю­бом ис­хо­де по­пыт­ка вдох­нуть но­вую жизнь в тео­рию, на пол­ве­ка опе­ре­див­шую свое вре­мя, без­услов­но за­слу­жи­ва­ет ува­же­ния.

ЛИТЕРАТУРА

1.

Лео­нид Чер­няк. Биз­нес-ана­ли­ти­ка как сер­вис // От­кры­тые си­сте­мы.субд. — 2010. — № 4. — С. 16–23. URL: https://www. osp.ru/os/2010/04/13002275 (да­та об­ра­ще­ния: 21.09.2018). 2.

Га­ли­на Езе­ро­ва, Эн­ге­ли­на Лу­хо­виц­кая. Пер­вый ком­пи­ля­тор // От­кры­тые си­сте­МЫ.СУБД. — 2013. — № 7. — С. 52–53. URL: https://www.osp.ru/os/2013/07/13037356 (да­та об­ра­ще­ния: 22.09.2018).

Клод Шен­нон и его мышь

Newspapers in Russian

Newspapers from Russia

© PressReader. All rights reserved.