Тре­тью ми­ро­вую вой­ну мо­гут на­чать ро­бо­ты

Ни­кто не зна­ет, что взбре­дет в «го­ло­ву » ис­кус­ствен­но­му ин­тел­лек­ту во­ен­но­го на­зна­че­ния

Nezavisimaya Gazeta - - ВОЙНЫ И АРМИИ - Вла­ди­мир Щер­ба­ков

По­клон­ни­ки гол­ли­вуд­ской са­ги о Тер­ми­на­то­ре пре­крас­но пом­нят, что про­изо­шло, ко­гда Скай­нет (про­грам­ма во­ен­но­го на­зна­че­ния на ос­но­ве ис­кус­ствен­но­го ин­тел­лек­та) осо­знал се­бя как лич­ность. Он ре­шил, что глав­ная угро­за – че­ло­ве­че­ство и при­нял­ся за его ис­треб­ле­ние.

По офи­ци­аль­ным дан­ным, по­ка что ав­то­ном­ная бо­е­вая си­сте­ма с ис­кус­ствен­ным ра­зу­мом не при­ня­та на во­ору­же­ние ни од­ной из ар­мий ми­ра. Но ра­бо­ты ве­дут­ся, и Управ­ле­ние стра­те­ги­че­ских воз­мож­но­стей Ми­но­бо­ро­ны США уже про­во­дит ис­пы­та­ния роя бес­пи­лот­ни­ков, пред­став­ля­ю­ще­го со­бой «кол­лек­тив­ный ор­га­низм, ко­то­рый об­ла­да­ет еди­ным моз­гом, поз­во­ля­ю­щим са­мо­сто­я­тель­но при­ни­мать ре­ше­ния».

Вы­сту­пая на Все­рос­сий­ском от­кры­том уро­ке, пре­зи­дент РФ Вла­ди­мир Пу­тин под­черк­нул: «Ис­кус­ствен­ный ин­тел­лект – это бу­ду­щее не толь­ко Рос­сии, это бу­ду­щее все­го че­ло­ве­че­ства. Здесь ко­лос­саль­ные воз­мож­но­сти и труд­но про­гно­зи­ру­е­мые се­го­дня угро­зы. Тот, кто ста­нет ли­де­ром в этой сфе­ре, бу­дет вла­сте­ли­ном ми­ра. И очень бы не хо­те­лось, что­бы эта мо­но­по­лия бы­ла со­сре­до­то­че­на в чьих-то кон­крет­ных ру­ках».

За­яв­ле­ние не оста­лось неза­ме­чен­ным. «Кон­ку­рен­ция за пре­вос­ход­ство в сфе­ре ис­кус­ствен­но­го ин­тел­лек­та на на­ци­о­наль­ном уровне – наи­бо­лее ве­ро­ят­ная при­чи­на на­ча­ла тре­тьей ми­ро­вой», – про­ком­мен­ти­ро­вал сло­ва рос­сий­ско­го пре­зи­ден­та в Twitter пред­при­ни­ма­тель Илон Маск, под­черк­нув, что в первую оче­редь опас­ность за­клю­ча­ет­ся в са­мих ком­пью­те­рах и ро­бо­тах. Ес­ли ис­кус­ствен­ный ин­тел­лект ре­шит, что пре­вен­тив­ный удар по про­тив­ни­ку мо­жет при­ве­сти к по­бе­де, то ру­ко­во­ди­те­ли го­су­дарств ни­как не смо­гут по­вли­ять на си­ту­а­цию.

«Сле­ду­ет се­рьез­но рас­смот­реть воз­мож­ность при­ня­тия ма­ши­на­ми ре­ше­ния о том, ко­му жить, а ко­му уми­рать, без пря­мо­го уча­стия со сто­ро­ны че­ло­ве­ка, – ука­зы­ва­ют ав­то­ры ста­тьи «Ав­то­ном­ные бес­пи­лот­ни­ки во­ен­но­го на­зна­че­ния – это боль­ше не на­уч­ная фан­та­сти­ка», раз­ме­щен­ной на сай­те НАТО. – На про­тя­же­нии по­след­них несколь­ких лет мы ста­ли сви­де­те­ля­ми стре­ми­тель­но­го раз­ви­тия тех­но­ло­гий в об­ла­сти бес­пи­лот­ных авиа­ци­он­ных си­стем, сте­пень «са­мо­сто­я­тель­но­сти» ко­то­рых по­сто­ян­но по­вы­ша­ет­ся. И ес­ли од­ни ви­дят боль­шую вы­го­ду от ис­поль­зо­ва­ния ав­то­ном­ных дро­нов, то дру­гие счи­та­ют раз­ра­бот­ку и ис­поль­зо­ва­ние та­кой тех­но­ло­гии пол­но­стью амо­раль­ны­ми. А та­кие ав­то­ри­тет­ные лич­но­сти, как Сти­вен Хо­кинг, Илон Маск и Стив Воз­няк, уже при­зва­ли уста­но­вить за­прет на бо­е­вое при­ме­не­ние ав­то­ном­ных си­стем во­ору­же­ния или ис­кус­ствен­но­го ин­тел­лек­та».

Что­бы оце­нить уро­вень ис­хо­дя­щей от ав­то­ном­ных бо­е­вых си­стем угро­зы, до­ста­точ­но по­смот­реть, что под та­ки­ми си­сте­ма­ми по­ни­ма­ют са­ми во­ен­ные. К при­ме­ру, Ми­но­бо­ро­ны Ве­ли­ко­бри­та­нии опи­сы­ва­ет их так: «С уче­том то­го, как ав­то­ном­ная си­сте­ма вос­при­ни­ма­ет окру­жа­ю­щую об­ста­нов­ку, та­кая си­сте­ма спо­соб­на пред­при­нять со­от­вет­ству­ю­щие дей­ствия с тем, что­бы до­бить­ся же­ла­е­мо­го ре­зуль­та­та. Она спо­соб­на на ос­но­ве ана­ли­за аль­тер­на­тив при­ни­мать ре­ше­ния, в ка­ком на­прав­ле­нии необ­хо­ди­мо дей­ство­вать, не тре­буя при этом кон­тро­ля и управ­ле­ния со сто­ро­ны че­ло­ве­ка. При этом, ес­ли в це­лом де­я­тель­ность ав­то­ном­ных бес­пи­лот­ных ле­та­тель­ных ап­па­ра­тов бу­дет пред­ска­зу­е­ма, то от­дель­ные дей­ствия мо­гут быть и не пред­ска­зу­е­мы».

Про­ще го­во­ря, в це­лом мы еще мо­жем кон­тро­ли­ро­вать ис­кус­ствен­ный ин­тел­лект, но от то­го, что ему од­на­жды взбре­дет «в го­ло­ву », мы на все 100 % не за­стра­хо­ва­ны. По­это­му, на взгляд ав­то­ра, о внед­ре­нии ав­то­ном­ных бо­е­вых си­стем в во­ен­ное де­ло, по край­ней ме­ре на дан­ном эта­пе, не мо­жет быть и ре­чи. По­ни­ма­ют это и в во­ен­но-по­ли­ти­че­ском ру­ко­вод­стве стран ми­ра, посколь­ку имен­но «от­сут­стви­ем по­ли­ти­че­ской во­ли раз­ра­ба­ты­вать или при­знать на­ли­чие та­кой крайне чув­стви­тель­ной тех­но­ло­гии» объ­яс­ня­ют от­сут­ствие в ар­ми­ях по­доб­ных си­стем.

При­чем с тех­ни­че­ской точ­ки зре­ния со­зда­ние ча­стич­но или пол­но­стью ав­то­ном­ных бо­е­вых си­стем воз­мож­но ес­ли не зав­тра, то уж точ­но по­сле­зав­тра. С точ­ки зре­ния во­ен­ной на­у­ки их при­ме­не­ние так­же не вы­зо­вет осо­бых про­блем. Но есть один фак­тор, ко­то­рый, ве­ро­ят­но, бу­дет тор­мо­зить ес­ли и не раз­ви­тие ав­то­ном­ных бо­е­вых си­стем, то уж точ­но их прак­ти­че­ское при­ме­не­ние. Речь о юри­ди­че­ской за­кон­но­сти и мо­раль­ном пра­ве при­ме­не­ния ис­кус­ствен­но­го ин­тел­лек­та в бою.

Со­гла­си­тесь, не со­всем пра­виль­но на­де­лять ма­ши­ну, пусть и очень ум­ную, пра­вом ре­шать, ко­му жить, а ко­му – уме­реть. Ведь как толь­ко мы да­дим ей та­кое пра­во, жизнь каж­до­го из нас и гро­ша ло­ма­но­го не бу­дет сто­ить – ма­ло ли ко­го «ум­ный ро­бот-кил­лер» со­чтет опас­ным для стра­ны или все­го че­ло­ве­че­ства! Как это мо­жет вы­гля­деть в ре­аль­но­сти, по­ка­за­но в трил­ле­ре «На крюч­ке» (в ори­ги­на­ле – «Ор­ли­ный глаз»), где ме­га­мозг ре­шил, что во­ен­но-по­ли­ти­че­ское ру­ко­вод­ство США по­ста­ви­ло без­опас­ность стра­ны под угро­зу, а по­то­му раз­ра­бо­тал про­грам­му лик­ви­да­ции по­чти всех его пред­ста­ви­те­лей и за­пу­стил ее в дей­ствие.

Кста­ти, пер­вый зво­но­чек уже про­зве­нел. Так, в ав­гу­сте с.г. пор­тал Tech Times со­об­щил, что ком­па­ния Facebook при­ня­ла ре­ше­ние от­клю­чить од­ну из сво­их си­стем ис­кус­ствен­но­го ин­тел­лек­та, посколь­ку ее чат-бо­ты, со­здан­ные для об­ще­ния с поль­зо­ва­те­ля­ми соц­се­ти, изоб­ре­ли свой, непо­нят­ный лю­дям язык, на ко­то­ром и ста­ли об­щать­ся меж­ду со­бой (с людь­ми они про­дол­жи­ли об­ще­ние на ан­глий­ском). В за­мет­ке ука­зы­ва­ет­ся, что на та­кой шаг ис­кус­ствен­ный ин­тел­лект по­шел для бо­лее быст­ро­го и эф­фек­тив­но­го об­ме­на ин­фор­ма­ци­ей…

Вам это ни­чем не на­по­ми­на­ет сю­жет се­рии филь­мов о Тер­ми­на­то­ре, Скай­не­те и ис­треб­ле­нии че­ло­ве­че­ства ма­ши­на­ми? Се­го­дня – свой язык, а зав­тра – свой мир, в ко­то­ром че­ло­ве­ку ме­ста мо­жет и не най­тись. И то­гда фан­та­сти­че­ский сю­жет о том, как Рос­сия и США про­тив сво­ей во­ли уни­что­жат друг дру­га, мо­жет стать ре­аль­но­стью.

Кадр из филь­ма «Тер­ми­на­тор 2: Суд­ный день». 1991

У ис­кус­ствен­но­го ин­тел­лек­та нече­ло­ве­че­ская ло­ги­ка.

Newspapers in Russian

Newspapers from Russia

© PressReader. All rights reserved.