ИС­КУС­СТВЕН­НЫЙ ИН­ТЕЛ­ЛЕКТ НА ГРА­НИ НЕРВ­НО­ГО СРЫ­ВА

Ekspert - - СОДЕРЖАНИЕ -

В 2018 го­ду ис­кус­ствен­ный ин­тел­лект вы­шел «на сво­бо­ду». Бы­ли ре­а­ли­зо­ва­ны пер­вые мас­штаб­ные про­ек­ты внед­ре­ния си­стем рас­по­зна­ва­ния об­ра­зов, дви­же­ния бес­пи­лот­но­го транс­пор­та, най­ма со­труд­ни­ков. Эти опы­ты вы­яви­ли пять важ­ней­ших угроз от ИИ, ко­то­рые за­став­ля­ют скеп­ти­ков тре­бо­вать сна­ча­ла уста­но­вить эти­че­ские нор­мы в его от­но­ше­нии, а уже за­тем про­дол­жать мас­штаб­ные экс­пе­ри­мен­ты

В 2018 го­ду ис­кус­ствен­ный ин­тел­лект вы­шел «на сво­бо­ду». Бы­ли ре­а­ли­зо­ва­ны пер­вые мас­штаб­ные про­ек­ты внед­ре­ния си­стем рас­по­зна­ва­ния об­ра­зов, дви­же­ния бес­пи­лот­но­го транс­пор­та, най­ма со­труд­ни­ков. Эти опы­ты вы­яви­ли пять важ­ней­ших угроз от ИИ, ко­то­рые за­став­ля­ют скеп­ти­ков тре­бо­вать сна­ча­ла уста­но­вить эти­че­ские нор­мы в его от­но­ше­нии, а уже за­тем про­дол­жать мас­штаб­ные экс­пе­ри­мен­ты

«Уни­что­жай про­шлое, де­лай бу­ду­щее», — го­во­рит юно­му ску­ча­ю­ще­му мил­ли­ар­де­ру ге­ро­и­ня филь­ма «Кос­мо­по­лис», по­ка они пол­зут по Нью-Йор­ку в бро­ни­ро­ван­ном зву­ко­не­про­ни­ца­е­мом ли­му­зине. Го­род охва­чен про­те­ста­ми, де­мон­стран­ты опрыс­ки­ва­ют ма­ши­ну спре­ем, пры­га­ют на нее, пы­та­ют­ся пе­ре­вер­нуть, но юный бир­же­вик по­гру­жен в та­нец цифр на мо­ни­то­ре — цифр, ко­то­рые да­дут ему за­ра­бо­тать на пол­ном рас­па­де все­го во­круг.

Ху­дож­ни­ки все­гда ви­дят впе­ред, вот и ре­жис­сер филь­ма Дэ­вид Кро­нен­берг еще шесть лет на­зад по­ка­зал, как циф­ра под­чи­ня­ет се­бе не толь­ко ра­бов, но и хо­зя­ев жиз­ни, по­гру­жая их в дур­ную бес­ко­неч­ность су­ще­ство­ва­ния без эмо­ций, во­ли и да­же иден­тич­но­сти, пре­вра­щая «бо­гов» в ма­ши­ны. Впро­чем, с точ­ки зре­ния тех­но­кра­то­вопти­ми­стов, это лишь оче­ред­ная стра­шил­ка. Со­вре­мен­ное ис­кус­ство, при­клад­ная на­у­ка и транс­на­ци­о­наль­ный ка­пи­та­лизм со­еди­ни­лись се­го­дня в об­щем по­ры­ве к без­гра­нич­но­му го­ри­зон­ту, за ко­то­рым ма­ши­на и че­ло­век со­льют­ся в еди­ное су­ще­ство, из­вле­ка­ю­щее при­быль не толь­ко из энер­гии и эле­мен­тов Зем­ли, но и непо­сред­ствен­но из всех на­коп­лен­ных че­ло­ве­че­ством за дол­гую ис­то­рию зна­ний. Ис­кус­ствен­ный ин­тел­лект че­рез си­сте­мы ма­шин­но­го обу­че­ния из­вле­чет из че­ло­ве­ка необ­хо­ди­мый ин­фор­ма­ци­он­ный ре­сурс, так что про­шлое бу­дет не уни­что­же­но, а мо­не­ти­зи­ро­ва­но.

Об­шир­ные тер­ри­то­рии до са­мо­го го­ри­зон­та на кар­те биз­не­са, свя­зан­но­го с ИИ, за­ня­ты сей­час не­сколь­ки­ми гло­баль­ны­ми ме­га­кор­по­ра­ци­я­ми — это все те же Amazon, Google, Apple, Microsoft, Tencent, Facebook. Имен­но они за­стра­и­ва­ют пей­заж, со­зда­ют там ин­фра­струк­ту­ру и но­вые ме­ха­низ­мы ак­ку­му­ли­ро­ва­ния ка­пи­та­ла и экс­плу­а­та­ции при­род­ных и че­ло­ве­че­ских ре­сур­сов пла­не­ты.

Год ве­ли­ко­го пе­ре­ло­ма

Еще год на­зад жур­нал Forbes оп­ти­ми­стич­но пи­сал, что 2018-й ста­нет про­рыв­ным в це­лом спек­тре об­ла­стей, свя­зан­ных с ИИ. В первую оче­редь на­зы­ва­ли ав­то­мо­биль­ную от­расль, где ИИ не толь­ко бу­дет управ­лять ма­ши­ной, но и возь­мет под свою от­вет­ствен­ность без­опас­ность,

до­суг и да­же эмо­ци­о­наль­ное со­сто­я­ние пас­са­жи­ров. ИИ ста­нет со­всем ум­ным и нач­нет от­ве­чать на во­прос «по­че­му», объ­яс­няя по­тре­би­те­лям, что сто­ит за тем или иным ре­ше­ни­ем. Це­но­об­ра­зо­ва­ние ста­нет ди­на­ми­че­ским и бу­дет ме­нять­ся не толь­ко в за­ви­си­мо­сти от об­ще­го спро­са и пред­ло­же­ния, но с уче­том за­про­сов и да­же эмо­ций кон­крет­но­го по­тре­би­те­ля, для каж­до­го из ко­то­рых бу­дет уста­нов­ле­на своя це­на. О том, что­бы вы­звать эмо­ции, бла­го­при­ят­ные для со­вер­ше­ния по­куп­ки, по­за­бо­тят­ся не толь­ко вез­де­су­щие чат-бо­ты, но и ин­фор­ма­ци­он­ные по­мощ­ни­ки ти­па Си­ри. ИИ ста­нет вез­де­су­щим, как во­да и воз­дух, а ком­па­нии, не до­ба­вив­шие хо­тя бы тон­кий слой ИИ на свой про­дукт, за­ве­до­мо по­те­ря­ют в кон­ку­рент­ной борь­бе.

2018 год по­за­ди. Дей­стви­тель­но, свя­зан­ные с ИИ си­сте­мы вхо­дят в по­все­днев­ную жизнь, пусть это не все­гда за­мет­но. Боль­шой шаг впе­ред, как и пред­ска­зы­ва­лось, со­вер­ши­ли си­сте­мы, свя­зан­ные с рас­по­зна­ва­ни­ем лиц. По­мощ­ни­ки ти­па Алек­сы от Amazon или Си­ри от Apple те­перь рас­по­зна­ют не толь­ко что имен­но ска­за­но, но и ка­ким то­ном ска­за­но, ка­кое эмо­ци­о­наль­ное и ду­шев­ное со­сто­я­ние за этим сто­ит. Кор­по­ра­ции па­тен­ту­ют ме­то­ды мар­ке­тин­га, по­стро­ен­ные на та­ких дан­ных, и пы­та­ют­ся мо­не­ти­зи­ро­вать эмо­ции.

При этом поль­зо­ва­тель Алек­сы яв­ля­ет­ся для ИИ-ин­ду­стрии од­но­вре­мен­но по­тре­би­те­лем, ре­сур­сом, ра­бот­ни­ком и про­дук­том. Он по­ку­па­ет по­тре­би­тель­ский про­дукт и поль­зу­ет­ся им, но при этом его го­ло­со­вые ко­ман­ды по­сту­па­ют в центр об­ра­бот­ки дан­ных Amazon, ана­ли­зи­ру­ют­ся там и хра­нят­ся для по­пол­не­ния ба­зы че­ло­ве­че­ских го­ло­сов, эмо­ций и ин­струк­ций, ко­то­рая по­том ис­поль­зу­ет­ся в це­лях ма­шин­но­го обу­че­ния ней­ро­се­тей. По­тре­би­те­ли так­же по­сто­ян­но ока­зы­ва­ют ком­па­нии бес­плат­ные услу­ги по оцен­ке ка­че­ства от­ве­тов Алек­сы, их по­лез­но­сти и свое­вре­мен­но­сти.

Amazon, Google и дру­гие ком­па­нии — раз­ра­бот­чи­ки ИИ вро­де бы мо­гут быть до­воль­ны: им в це­лом уда­лось до­стичь по­став­лен­ных це­лей и на­чать по­лу­чать вы­го­ду.

Од­на­ко по ито­гам го­да ста­ло по­нят­но и то, что опас­но­сти, о ко­то­рых пре­ду­пре­жда­ли та­кие ис­сле­до­ва­те­ли ИИ, как за­пи­сан­ный в пес­си­ми­сты Ник Бо­стром, про­яви­ли се­бя го­раз­до рань­ше, чем это­го ожи­да­ли оп­ти­ми­сты.

ИИ схо­дит с ума?

В мар­те управ­ля­е­мый ИИ ав­то­ном­ный ав­то­мо­биль ком­па­нии Uber не уви­дел на до­ро­ге жен­щи­ну, и это за­кон­чи­лось ле­таль­ным ис­хо­дом. В том же ме­ся­це со­труд­ни­ки Google вы­сту­пи­ли с бес­пре­це­дент­ным про­те­стом про­тив со­зда­ния си­стем ИИ по за­ка­зам Пен­та­го­на для си­стем во­ору­же­ний. В мае си­сте­ма рас­по­зна­ва­ния го­ло­са, пред­на­зна­чен­ная раз­об­ла­чать зло­упо­треб­ле­ния при по­да­че за­яв­ле­ний на им­ми­гра­цию в Ве­ли­ко­бри­та­нию, «со­шла с ума», ан­ну­ли­ро­ва­ла ты­ся­чи виз и при­ня­ла ре­ше­ния о вы­сыл­ке из стра­ны со­тен лю­дей. Циф­ро­вой по­мощ­ник IBM Watson ре­ко­мен­до­вал лю­дям, боль­ным ра­ком, непра­виль­ные и небез­опас­ные для здо­ро­вья пре­па­ра­ты, а ал­го­ритм, раз­ра­бо­тан­ный для им­ми­гра­ци­он­ной и та­мо­жен­ной по­ли­ции США, стал вы­да­вать од­ну­един­ствен­ную ре­ко­мен­да­цию для всех без ис­клю­че­ния им­ми­гран­тов: за­дер­жать.

Неко­то­рые из клю­че­вых бо­ле­вых то­чек, про­явив­ших­ся в хо­де раз­ви­тия ин­ду­стрии, бы­ли сфор­му­ли­ро­ва­ны в до­кла­де ньюй­орк­ско­го ин­сти­ту­та AI Now, ко­то­рый вы­шел в де­каб­ре ухо­дя­ще­го го­да. Ин­сти­тут за­ни­ма­ет­ся меж­дис­ци­пли­нар­ным изу­че­ни­ем во­про­сов, свя­зан­ных с воз­дей­стви­ем ИИ на об­ще­ство, и иг­ра­ет весь­ма важ­ную роль в фор­ми­ро­ва­нии по­вест­ки дня аме­ри­кан­ской ад­ми­ни­стра­ции. Так, в 2016 го­ду со­ос­но­ва­тель­ни­ца ин­сти­ту­та Кейт Кро­уфорд, в про­шлом ве­ду­щий ис­сле­до­ва­тель Microsoft, ор­га­ни­зо­ва­ла под эги­дой Бе­ло­го до­ма встре­чу клю­че­вых иг­ро­ков ин­ду­стрии, по ито­гам ко­то­рой под­го­то­ви­ла ос­нов­ные те­зи­сы до­кла­да Со­ве­та по тех­но­ло­ги­ям при ад­ми­ни­стра­ции Ба­ра­ка Оба­мы «Го­то­вясь к бу­ду­ще­му ИИ», вы­шед­ше­го пе­ред са­мы­ми вы­бо­ра­ми 2016 го­да. Сей­час Кро­уфорд — пред­се­да­тель се­ти экс­пер­тов, ко­то­рая го­то­вит ме­ро­при­я­тия Все­мир­но­го эко­но­ми­че­ско­го фо­ру­ма в Да­во­се на те­му ИИ и ин­тер­не­та ве­щей.

Во­прос уже в том, есть ли опас­ность в ИИ-тех­но­ло­ги­ях, го­во­рит­ся в до­кла­де AI Now. В том, ка­кие ме­ры уже сей­час нуж­но при­ни­мать пра­ви­тель­ствам, об­ще­ству, биз­не­су, что­бы из­бе­жать раз­ви­тия со­бы­тий по са­мым худ­шим сце­на­ри­ям. Про­бле­ма осо­бен­но на­сущ­на, учи­ты­вая мас­штаб си­стем на ба­зе ИИ: воз­ник­нув, они немед­лен­но ста­но­вят­ся гло­баль­ны­ми, под­стра­и­вая под се­бя об­ще­ство по прин­ци­пу, вы­ра­жен­но­му Мар­шал­лом Ма­клю­эном: «Мы при­да­ем фор­му на­шим ин­стру­мен­там, а по­том на­ши ин­стру­мен­ты при­да­ют фор­му нам».

Рас­по­зна­ва­ние мысле­пре­ступ­ле­ний

В этом го­ду прес­са мно­го пи­са­ла о ме­то­дах, при­ме­ня­е­мых ки­тай­ски­ми вла­стя­ми в про­вин­ции Синц­зянь, где си­сте­ма рас­по­зна­ва­ния лиц при­ме­ня­ет­ся для вы­яв­ле­ния по­тен­ци­аль­ных «тер­ро­ри­стов», ко­то­рые по­том изо­ли­ру­ют­ся от об­ще­ства на ос­но­ва­нии од­них лишь по­до­зре­ний со­глас­но за­дан­ным па­ра­мет­рам «групп рис­ка». Мень­ше из­вест­но о схо­жих прак­ти­ках, хо­тя, ко­неч­но, не та­ко­го мас­шта­ба, в США. Так, по­ли­ция го­ро­да Ор­лан­до во Фло­ри­де ста­ла при­ме­нять си­сте­му рас­по­зна­ва­ния лиц, раз­ра­бо­тан­ную Amazon, что­бы оста­но­вить рост улич­но­го на­си­лия. Как и в Ки­тае, си­сте­ма, ко­то­рая поз­во­ля­ет иден­ти­фи­ци­ро­вать до 100 лиц в од­ном кад­ре, ра­бо­та­ет вме­сте с се­тью ка­мер на­блю­де­ния. Amazon раз­ра­бо­тал для по­ли­ции мо­биль­ное при­ло­же­ние, поль­зу­ясь ко­то­рым мож­но ска­ни­ро­вать ли­ца и уста­нав­ли­вать сход­ство с фо­то­гра­фи­я­ми из ба­зы дан­ных по­ли­ции.

При этом тех­но­ло­гии рас­по­зна­ва­ния лиц все боль­ше со­че­та­ют­ся с си­сте­ма­ми «рас­по­зна­ва­ния аф­фек­та». Раз­ра­бот­чи­ки этих си­стем утвер­жда­ют, что по ви­део­за­пи­си или фо­то ли­ца че­ло­ве­ка мож­но опре­де­лить тип его лич­но­сти, чув­ства внут­ри него, да­же скры­тые, его ду­шев­ное здо­ро­вье, мож­но про­честь его на­ме­ре­ния — в част­но­сти, на­ме­ре­ние со­вер­шить пре­ступ­ле­ние. Бо­лее то­го, ис­сле­до­ва­те­ли из Ст­эн­форд­ско­го уни­вер­си­те­та утвер­жда­ют, что ней­рон­ные се­ти, ана­ли­зи­руя вы­ра­же­ние ли­ца, мо­гут ука­зы­вать на тип сек­су­аль­но­го по­ве­де­ния че­ло­ве­ка, в част­но­сти яв­ля­ет­ся ли он го­мо­сек­су­а­лом.

«Рас­по­зна­ва­ние аф­фек­та» — очень удоб­ный ин­стру­мент, ко­то­рый мо­жет при­ме­нять­ся не толь­ко в по­ли­цей­ских ме­ро­при­я­ти­ях или в мо­ни­то­рин­ге аэро­пор­тов и вок­за­лов, но и при най­ме лю­дей на ра­бо­ту, при­е­ме в ву­зы. Че­ло­ве­ку мо­жет быть от­ка­за­но в стра­хов­ке, в ра­бо­те, в кре­ди­те бук­валь­но на том ос­но­ва­нии, что он или она «не вы­шли ли­цом».

Мно­гие уче­ные, не со­глас­ные с по­доб­ны­ми вы­во­да­ми, бьют тре­во­гу. Ведь фи­зио­гно­ми­ка и фре­но­ло­гия, ко­то­рые ле­жат в ос­но­ве по­доб­ных про­ве­рок, сре­ди се­рьез­ных уче­ных счи­та­ют­ся лже­на­у­ка­ми, ко­то­рые, ко все­му про­че­му, ак­тив­но ис­поль­зо­ва­лись в бес­че­ло­веч­ных прак­ти­ках Тре­тье­го рей­ха. Но про­ект по­ли­ции Ор­лан­до был за­крыт не из-за фре­но­ло­гии.

Ко­гда о нем узна­ли со­труд­ни­ки вли­я­тель­ной неком­мер­че­ской ор­га­ни­за­ции «Аме­ри­кан­ский со­юз граж­дан­ских сво­бод» (UCLA), они при­влек­ли к те­сти­ро­ва­нию ис­сле­до­ва­те­лей из Уни­вер­си­те­та Ка­ли­фор­нии в Берк­ли. Те вве­ли в си­сте­му фо­то­гра­фии дей­ству­ю­щих чле­нов Се­на­та США и срав­ни­ли их с по­ли­цей­ской ба­зой дан­ных аре­сто­ван­ных лиц. При­ло­же­ние Amazon в ито­ге уста­но­ви­ло, что ли­ца 28 се­на­то­ров иден­тич­ны ли­цам пре­ступ­ни­ков из ба­зы, к то­му же боль­шин­ство се­на­то­ров, иден­ти­фи­ци­ро­ван­ных та­ким об­ра­зом, ока­за­лись цвет­ны­ми. Вы­шел скан­дал, по­ли­ция Ор­лан­до от ИИ-прак­ти­ки от­ка­за­лась, хо­тя в Amazon за­яви­ли, что про­бле­ма не в прин­ци­пе ра­бо­ты си­сте­мы, а лишь в непол­но­те со­бран­ных дан­ных.

Ве­ро­ят­но, эта осеч­ка не слиш­ком за­тор­мо­зит про­цесс — так, недав­но со­об­ща­лось, что IBM и по­ли­ция Нью-Йор­ка

Newspapers in Russian

Newspapers from Russia

© PressReader. All rights reserved.