«Гон­ка во­ору­же­ний»: ис­кус­ствен­ный ин­тел­лект и ки­бер­без­опас­ность

Direktor informatsionnoj sluzhby - - СОДЕРЖАНИЕ - ЯНА АБРАМОВА

О пер­спек­ти­вах и про­бле­мах при­ме­не­ния ис­кус­ствен­но­го ин­тел­лек­та в ки­бер­без­опас­но­сти, а так­же о том, ка­кие на­прав­ле­ния ин­фор­ма­ци­он­ной без­опас­но­сти мо­гут под­верг­нуть­ся наи­боль­ше­му вли­я­нию со сто­ро­ны ИИ и по­че­му, рас­ска­за­ли пред­ста­ви­те­ли рос­сий­ских ком­па­ний из сфе­ры ин­фор­ма­ци­он­ной без­опас­но­сти

Ис­кус­ствен­ный ин­тел­лект при­ме­ня­ет­ся уже несколь­ко де­сят­ков лет. Пер­во­на­чаль­но он ра­бо­тал на ос­но­ве на­бо­ра за­ра­нее за­дан­ных пра­вил. В 70-х го­дах ши­ро­кое рас­про­стра­не­ние по­лу­чи­ли тех­но­ло­гии на ос­но­ве ней­рон­ных се­тей, ко­то­рые по­сред­ством ис­поль­зо­ва­ния са­мо­обу­ча­ю­щих­ся мо­де­лей опре­де­ля­ли, ка­кие дан­ные яв­ля­ют­ся нор­маль­ны­ми, а ка­кие – не укла­ды­ва­ю­щи­ми­ся в стан­дарт­ную мо­дель по­ве­де­ния ин­фор­ма­ци­он­ной си­сте­мы. В на­ча­ле

2000-x го­дов на­ча­лось ак­тив­ное раз­ви­тие ИИ для ре­ше­ния практических за­дач: ал­го­рит­мы на­учи­лись об­ра­ба­ты­вать изоб­ра­же­ния, ви­део и го­лос. «Раз­ви­тие ИИ в сфе­ре ин­фор­ма­ци­он­ной без­опас­но­сти на­ча­лось в 2005-2008 го­дах и бы­ло на­прав­ле­но в первую оче­редь на за­щи­ту наи­бо­лее ата­ку­е­мых ре­сур­сов – веб-сер­ве­ров, но вско­ре ней­рон­ные се­ти ста­ли ис­поль­зо­вать и в дру­гих ре­ше­ни­ях, на­при­мер при раз­ра­бот­ке эв­ри­сти­че­ских мо­ду­лей ан­ти­ви­ру­сов», – го­во­рит Ан­дрей За­и­кин, ру­ко­во­ди­тель на­прав­ле­ния ин­фор­ма­ци­он­ной без­опас­но­сти «Крок».

Се­год­ня ис­кус­ствен­ный ин­тел­лект вы­шел из ИТла­бо­ра­то­рий в биз­нес-сре­ду, где не толь­ко стал мод­ной тен­ден­ци­ей, но и на­шел вполне прак­ти­че­ское при­ме­не­ние: для сни­же­ния из­дер­жек и оп­ти­ми­за­ции внут­рен­них про­цес­сов. И в бли­жай­шие де­сять лет тех­но­ло­гии ИИ по­вли­я­ют прак­ти­че­ски на все сфе­ры биз­не­са. По про­гно­зам меж­ду­на­род­ной ис­сле­до­ва­тель­ской ком­па­нии Markets and Markets, к 2020 го­ду ры­нок ИИ вы­рас­тет до 5 млрд долл.

Как объ­яс­ня­ет Ка­миль Га­зи­зов, ге­не­раль­ный ди­рек­тор «РТ-Ин­форм» (Центр ком­пе­тен­ции ИТ и ИБ «Ро­сте­ха»), тра­ди­ци­он­но под ИИ под­ра­зу­ме­ва­ют си­сте­му, пред­на­зна­чен­ную для ав­то­ма­ти­за­ции ре­ше­ния ин­тел­лек­ту­аль­ных за­дач. Од­ной из глав­ных про­блем в сфе­ре ИИ на се­год­ня яв­ля­ет­ся со­зда­ние ав­то­ном­ной ин­тел­лек­ту­аль­ной си­сте­мы, спо­соб­ной к при­ня­тию са­мо­сто­я­тель­ных ре­ше­ний. По­ка эта си­сте­ма ис­поль­зу­ет уже за­ло­жен­ные в нее пра­ви­ла или ал­го­рит­мы. Внед­ре­ние ИИ от­кры­ва­ет но­вые воз­мож­но­сти пе­ред спе­ци­а­ли­ста­ми по без­опас­но­сти, но не от­ме­ня­ет их ве­ду­щей ро­ли. Че­ло­ве­че­ский ра­зум по-преж­не­му зна­чим и необ­хо­дим. Все про­цес­сы оста­ют­ся под кон­тро­лем спе­ци­а­ли­стов по без­опас­но­сти. Тем не ме­нее по­пыт­ки при­бли­зить­ся к со­зда­нию ав­то­ном­но­го ИИ бу­дут пред­при­ни­мать­ся и, воз­мож­но, со вре­ме­нем увен­ча­ют­ся успе­хом.

Что ка­са­ет­ся ки­бер­без­опас­но­сти, то ис­кус­ствен­ный ин­тел­лект по­мо­жет эф­фек­тив­нее ре­шать за­да­чи, ко­то­рые ра­нее ре­ша­лись тра­ди­ци­он­ны­ми спо­со­ба­ми. В част­но­сти, по сло­вам Га­зи­зо­ва, бла­го­да­ря ис­поль­зо­ва­нию ИИ по­вы­сит­ся уро­вень об­на­ру­же­ния угроз, со­кра­тит­ся вре­мя ре­ак­ции и усо­вер­шен­ству­ют­ся спо­со­бы опре­де­ле­ния ре­аль­ных по­пы­ток на­ру­ше­ния пе­ри­мет­ра без­опас­но­сти. Кро­ме то­го, ИИ мо­жет устра­нить су­ще­ству­ю­щие бре­ши в сфе­ре ИБ, ко­то­рые по­яв­ля­ют­ся вслед­ствие стре­ми­тель­но­го раз­ви­тия со­вре­мен­ных тех­но­ло­гий, вклю­чая Ин­тер­нет ве­щей.

По сло­вам Руст­э­ма Хай­рет­ди­но­ва, ге­не­раль­но­го ди­рек­то­ра «Атак Кил­лер», как и в лю­бой дру­гой об­ла­сти, в ки­бер­без­опас­но­сти ИИ по­мо­га­ет опе­ра­тив­но ана­ли­зи­ро­вать боль­шие объ­е­мы дан­ных, осво­бож­дать опе­ра­то­ров от ру­тин­ной и ча­сто мо­но­тон­ной ра­бо­ты. Улуч­ше­ние ка­че­ства ана­ли­ти­ки и ис­клю­че­ние че­ло­ве­че­ско­го фак­то­ра поз­во­ля­ют эф­фек­тив­нее об­на­ру­жи­вать и от­ра­жать но­вые ата­ки.

ПЕР­СПЕК­ТИ­ВЫ ПРИ­МЕ­НЕ­НИЯ ИИ В КИ­БЕР­БЕЗ­ОПАС­НО­СТИ

Ти­мур Аи­тов, за­ме­сти­тель ге­не­раль­но­го ди­рек­то­ра груп­пы ком­па­ний «Про­грамм­ный Про­дукт», счи­та­ет, что в це­лом пер­спек­ти­вы при­ме­не­ния ИИ в ки­бер­без­опас­но­сти об­шир­ны и без тех­но­ло­гий ИИ обой­тись в сред­не­сроч­ной пер­спек­ти­ве бу­дет невоз­мож­но. С ним со­гла­сен и За­и­кин: «Со­вре­мен­ный ИИ – это си­сте­ма, спо­соб­ная вы­ис­ки­вать ано­ма­лии, ко­то­рые невоз­мож­но опи­сать опре­де­лен­ны­ми пра­ви­ла­ми. В этом его глав­ное пре­иму­ще­ство по срав­не­нию с клас­си­че­ски­ми си­сте­ма­ми ин­фор­ма­ци­он­ной без­опас­но­сти, ра­бо­та­ю­щи­ми на ос­но­ве сво­да пра­вил, за­да­ва­е­мых че­ло­ве­ком».

Лю­бое со­бы­тие, в том чис­ле со­бы­тие ин­фор­ма­ци­он­ной без­опас­но­сти, все­гда остав­ля­ет ин­фор­ма­ци­он­ные сле­ды, про­дол­жа­ет Аи­тов. Ес­ли сто­ит за­да­ча разо­брать­ся в том, что слу­чи­лось, оце­нить ве­ро­ят­ность по­вто­ре­ния, дать про­гноз, то ин­фор­ма­ци­он­ный след дол­жен быть мак­си­маль­но пол­ным. При­хо­дит­ся со­би­рать и ана­ли­зи­ро­вать огром­ное ко­ли­че­ство ин­фор­ма­ции, по­сту­па­ю­щей из са­мых раз­но­об­раз­ных пер­вич­ных ис­точ­ни­ков.

При этом пе­ре­ра­ба­ты­ва­ют­ся го­ры пу­стой ин­фор­ма­ци­он­ной «ру­ды», и всё для то­го, что­бы вы­явить кру­пи­цы зна­ний – ос­нов­ных вза­и­мо­свя­зей, поз­во­ля­ю­щих по­нять, что соб­ствен­но слу­чи­лось и по­че­му. Здесь на по­мощь при­хо­дит ИИ, спо­соб­ный опе­ра­тив­но пе­ре­ра­бо­тать и вы­явить эти за­ко­но­мер­но­сти и фак­ты для даль­ней­шей оцен­ки и при­ня­тия ре­ше­ний че­ло­ве­ком. Ис­кус­ствен­ный ин­тел­лект иг­ра­ет роль по­мощ­ни­ка в тан­де­ме че­ло­век-ма­ши­на. Воз­мож­но, роль че­ло­ве­ка по­сте­пен­но ста­нет умень­шать­ся, а ма­ши­ны бу­дут ста­но­вить­ся все бо­лее са­мо­сто­я­тель­ны­ми. Но се­год­ня без уча­стия опе­ра­то­ра тан­дем по­ка ра­бо­тать не мо­жет. Что ка­са­ет­ся эф­фек­тив­но­сти, то к ка­ким-то ра­ди­каль­ным из­ме­не­ни­ям в борь­бе с пре­ступ­ни­ка­ми тех­но­ло­гии ИИ по­ка не при­во­дят, но в сред­не­сроч­ной и дол­го­сроч­ной пер­спек­ти­ве про­гресс пой­дет имен­но по это­му пу­ти – сле­дить за ИТ-си­сте­ма­ми бу­дут ИТ-си­сте­мы. В вы­иг­ры­ше ока­жут­ся те струк­ту­ры, те ор­га­ни­за­ции, те стра­ны, ко­то­рые пер­вы­ми на­ча­ли ис­поль­зо­вать эти под­хо­ды.

ВЛИ­Я­НИЕ ИИ НА ИН­ФОР­МА­ЦИ­ОН­НУЮ БЕЗ­ОПАС­НОСТЬ

Но­вые си­сте­мы клас­са SIEM (security information and event management) обой­тись без тех­но­ло­гий ма­шин­но­го обу­че­ния и ИИ уже не мо­гут, го­во­рит Аи­тов. Си­сте­мы пе­ре­да­ют пре­ду­пре­жде­ния и объ­яв­ля­ют тре­во­гу, вы­чис­ля­ют ти­по­вые (сред­ние) со­сто­я­ния ра­бо­ты си­стем, ищут от­кло­не­ния от этих сред­них (или ано­ма­лии) – все это да­же тео­ре­ти­че­ски вы­пол­нить че­ло­ве­ку невоз­мож­но. Ис­кус­ствен­ный ин­тел­лект ис­поль­зу­ют не толь­ко SIEM, но и си­сте­мы об­на­ру­же­ния (IDS), си­сте­мы предот­вра­ще­ния втор­же­ний (IPS), си­сте­мы управ­ле­ния идентификацией и доступом (IAM), вся ана­ли­ти­ка BI и си­сте­мы про­дви­ну­той ан­ти­ви­рус­ной за­щи­ты.

По сло­вам За­и­ки­на, наи­боль­ше­му вли­я­нию со сто­ро­ны ИИ под­вер­га­ют­ся си­сте­мы се­те­вой без­опас­но­сти, про­ак­тив­но­го об­на­ру­же­ния ском­про­ме­ти­ро­ван­ных уз­лов се­ти и си­сте­мы сбо­ра и ана­ли­за со­бы­тий ИБ. Кро­ме то­го, име­ют­ся ре­ше­ния, ис­поль­зу­ю­щие ал­го­рит­мы ма­шин­но­го обу­че­ния для ре­ше­ния та­ких за­дач, как об­на­ру­же­ние ано­ма­лий в ра­бо­те с фай­ло­вы­ми ре­сур­са­ми, ба­за­ми дан­ных, биз­нес-си­сте­ма­ми, а так­же пред­на­зна­чен­ные для вы­яв­ле­ния мо­шен­ни­че­ских дей­ствий со сто­ро­ны со­труд­ни­ков ком­па­нии.

Наи­боль­шую вы­го­ду от при­ме­не­ния ИИ по­лу­чат те сег­мен­ты, где че­ло­век справ­ля­ет­ся ху­же ма­ши­ны как по точ­но­сти опре­де­ле­ния ин­ци­ден­тов, так и по ско­ро­сти ре­ак­ции. «Это про­ти­во­дей­ствие мо­шен­ни­че­ству (anti-fraud), ана­лиз тра­фи­ка на вы­яв­ле­ние атак, ана­лиз ано­маль­но­го по­ве­де­ния на ос­но­ве кор­ре­ля­ции со­бы­тий в ин­фор­ма­ци­он­ной си­сте­ме и дру­гие об­ла­сти, где точ­ность и ско­рость ре­ак­ции яв­ля­ют­ся кри­ти­че­ски­ми для за­щи­ты», – пе­ре­чис­ля­ет Хай­рет­ди­нов.

БА­РЬЕ­РЫ И ПРО­БЛЕ­МЫ, ОСЛОЖНЯЮЩИЕ ИС­ПОЛЬ­ЗО­ВА­НИЕ ИИ В ИН­ФОР­МА­ЦИ­ОН­НОЙ БЕЗ­ОПАС­НО­СТИ

В об­ла­сти ин­фор­ма­ци­он­ной без­опас­но­сти обу­че­ние на ста­рых дан­ных осо­бо­го смыс­ла не име­ет, в то вре­мя как в тра­ди­ци­он­ных для ИИ об­ла­стях (рас­по­зна­ва­ние лиц и го­ло­са, ма­шин­ный пе­ре­вод с од­но­го язы­ка на дру­гой, управ­ле­ние за­па­са­ми, ав­то­пи­ло­ты) та­кой ал­го­ритм – ба­зо­вая прак­ти­ка. «Ста­рые, уже из­вест­ные ата­ки от­ра­жа­ют­ся без вся­ко­го ИИ, на уровне сиг­на­тур, и, обу­ча­ясь на них, мы мо­жем упо­до­бить­ся ста­рым ге­не­ра­лам, ко­то­рые го­то­вят­ся к про­шед­шей войне. Опас­ны­ми яв­ля­ют­ся толь­ко но­вые ата­ки, а над их со­зда­ни­ем тру­дят­ся луч­шие умы ки­бер­пре­ступ­но­го ми­ра, и преду­га­дать их идеи ма­шине по­ка слож­но.

По­это­му ИИ в ки­бер­без­опас­но­сти ис­поль­зу­ет дру­гие ал­го­рит­мы, ме­нее от­ла­жен­ные», – счи­та­ет Хай­рет­ди­нов.

Аи­тов осо­бых ба­рье­ров для внед­ре­ния ИИ не ви­дит, а про­бле­мы мо­гут быть свя­за­ны с рас­пре­де­ле­ни­ем зон от­вет­ствен­но­сти: в ка­кой ме­ре мож­но де­ле­ги­ро­вать си­сте­мам ИИ при­ня­тие важ­ней­ших ре­ше­ний, кто имен­но бу­дет нести от­вет­ствен­ность за при­ни­ма­е­мые си­сте­мой ре­ше­ния. Про­бле­ма мо­жет быть лег­ко устра­не­на, ес­ли си­сте­ма все­гда бу­дет ра­бо­тать в связ­ке с опе­ра­то­ром, ко­то­рый при­мет важ­ней­шие ре­ше­ния. То­гда и вся от­вет­ствен­ность за ре­ше­ния и ис­поль­зо­ва­ние это­го ин­стру­мен­та ля­жет на него. Те же, кто бу­дут де­ле­ги­ро­вать от­вет­ствен­ность ро­бо­там, столк­нут­ся с про­бле­ма­ми. При­дет­ся ак­ку­рат­но от­сле­жи­вать и пра­во­вые ас­пек­ты дей­ствия си­стем ИИ, и под­счи­ты­вать воз­мож­ные убыт­ки – кто их бу­дет ком­пен­си­ро­вать, ес­ли сра­ба­ты­ва­ние бы­ло лож­ным? По­ка в этой ча­сти пол­но­стью до­ве­рять ма­ши­нам мы не мо­жем.

Ба­рье­ром, ослож­ня­ю­щим ис­поль­зо­ва­ние ИИ, мо­гут стать за­труд­не­ния в ин­тер­пре­та­ции ре­зуль­та­тов ра­бо­ты ал­го­рит­мов, счи­та­ет За­и­кин. Те си­сте­мы ИИ, ко­то­рые при­дер­жи­ва­лись нис­хо­дя­щей па­ра­диг­мы, ори­ен­ти­ро­ва­лись на чет­кие пра­ви­ла и мог­ли «объ­яс­нить», по­че­му та или иная ак­тив­ность яв­ля­ет­ся ано­маль­ной. Ре­зуль­тат ра­бо­ты си­стем на ос­но­ве ней­рон­ных се­тей, при­дер­жи­ва­ю­щих­ся вос­хо­дя­щей па­ра­диг­мы, не все­гда так про­сто ин­тер­пре­ти­ро­вать. За­ча­стую ана­ли­ти­ку тре­бу­ет­ся нема­ло вре­ме­ни, что­бы по­нять, дей­стви­тель­но ли ак­тив­ность свя­за­на с вре­до­нос­ны­ми дей­стви­я­ми зло­умыш­лен­ни­ка или, до­пу­стим, в ком­па­нии по­явил­ся но­вый со­труд­ник, ко­то­ро­го ак­тив­но при­вле­ка­ют к про­ек­там. Од­на­ко сей­час уже есть ре­ше­ния, ко­то­рые объ­еди­ня­ют эти два под­хо­да, бла­го­да­ря че­му ин­тер­пре­ти­ру­е­мость ре­зуль­та­тов зна­чи­тель­но по­вы­ша­ет­ся, а зна­чит, со­кра­ща­ет­ся вре­мя на рас­сле­до­ва­ние ин­ци­ден­та и сни­жа­ет­ся на­груз­ка на экс­плу­а­та­ци­он­ный пер­со­нал.

Еще од­на слож­ность за­клю­ча­ет­ся в том, что со­вре­мен­ные си­сте­мы ИИ мо­гут обу­чить­ся со­всем не то­му, че­му их из­на­чаль­но пла­ни­ро­ва­ли на­учить раз­ра­бот­чи­ки, про­дол­жа­ет За­и­кин. Ка­че­ство ра­бо­ты та­ких си­стем в боль­шин­стве слу­ча­ев за­ви­сит от то­го, на ка­ких дан­ных они обу­ча­ют­ся. Ес­ли в этих дан­ных из­на­чаль­но при­сут­ству­ет ано­маль­ная ак­тив­ность, то ИИ бу­дет в даль­ней­шем ква­ли­фи­ци­ро­вать ее как нор­маль­ную и, сле­до­ва­тель­но, не об­на­ру­жит. Бе­з­услов­но, си­сте­му мож­но до­обу­чить в про­цес­се экс­плу­а­та­ции, но та­кие слож­но­сти нель­зя остав­лять без вни­ма­ния.

НА­ПА­ДЕ­НИЕ И ЗА­ЩИ­ТА: ИИ МЕ­НЯ­ЕТ СО­ОТ­НО­ШЕ­НИЕ СИЛ

Хай­рет­ди­нов счи­та­ет: с ис­поль­зо­ва­ни­ем ИИ вре­мя ре­ак­ции на но­вые угро­зы мо­жет со­кра­тить­ся до та­ко­го ми­ни­му­ма, что от­ра­жать но­вые ата­ки мож­но бу­дет в ре­аль­ном вре­ме­ни.

За­и­кин не про­гно­зи­ру­ет кар­ди­наль­ных из­ме­не­ний в со­от­но­ше­нии сил: «Ха­ке­ры при­ду­мы­ва­ют но­вые спо­со­бы взло­ма ин­фор­ма­ци­он­ных си­стем, за­щит­ни­ки раз­ра­ба­ты­ва­ют но­вые сред­ства и тех­но­ло­гии за­щи­ты. Ре­ше­ния на ос­но­ве ИИ се­год­ня спо­соб­ны рас­по­зна­вать уже су­ще­ству­ю­щие и мно­гие но­вые ви­ды атак. Но ведь и зло­умыш­лен­ни­ки не сто­ят на ме­сте и то­же мо­гут ис­поль­зо­вать ИИ для до­сти­же­ния сво­их це­лей».

Аи­тов счи­та­ет, что за­щи­та , как пра­ви­ло, все­гда опе­ре­жа­ет, осо­бен­но при ис­поль­зо­ва­нии ИИ, – на ка­кую-то неболь­шую до­лю, ска­жем на 10%. Это­го неболь­шо­го пе­ре­ве­са мы про­сто не ви­дим. За­щи­та долж­на со­от­вет­ство­вать цен­но­сти то­го ак­ти­ва, ко­то­рый за­щи­ща­ет. Мож­но сде­лать за­щи­ту аб­со­лют­но на­деж­ной. Но та­кая за­щи­та неце­ле­со­об­раз­на – биз­нес не смо­жет функ­ци­о­ни­ро­вать. Все­гда при­хо­дит­ся ба­лан­си­ро­вать меж­ду ра­зум­ным, удоб­ным и до­ста­точ­ным. Это так на­зы­ва­е­мый риск-ори­ен­ти­ро­ван­ный под­ход, ко­то­рый обя­зы­ва­ет ка­кой-то гол в свои во­ро­та про­пус­кать. Счет идет на уровне 1:1, и яв­но­го пе­ре­ве­са в чью-то сто­ро­ну нет. Но со­от­но­ше­ние сил и ме­ры про­ти­во­дей­ствия все­гда бу­дет опре­де­лять за­щи­та – у нее воз­мож­но­стей боль­ше.

ЭКО­НО­МИЯ БЛА­ГО­ДА­РЯ ИИ

Ки­бер­пре­ступ­ность – боль­шой биз­нес, ко­то­рый го­тов ин­ве­сти­ро­вать зна­чи­тель­ные сред­ства в раз­ра­бот­ку сво­их ин­стру­мен­тов. Так воз­мож­но ли бла­го­да­ря ис­поль­зо­ва­нию ИИ из­ба­вить­ся от про­пор­ци­о­наль­но­го ро­ста ин­ве­сти­ций, необ­хо­ди­мых для мо­дер­ни­за­ции средств за­щи­ты?

Бе­з­услов­но, ИИ об­лег­ча­ет уси­лия за­щи­ты, рас­тут ее ка­че­ствен­ные по­ка­за­те­ли. «ИИ ре­ша­ет и кад­ро­вые во­про­сы. Экс­пер­ты – вы­со­ко­опла­чи­ва­е­мая ка­те­го­рия со­труд­ни­ков, их мо­жет не хва­тать. Ес­ли же под на­ча­лом спе­ци­а­ли­ста по ин­фор­ма­ци­он­ной без­опас­но­сти ра­бо­та­ют си­сте­мы ИИ, то его

воз­мож­но­сти уде­ся­те­ря­ют­ся, он ста­но­вит­ся бо­лее про­из­во­ди­тель­ным, и та­ких со­труд­ни­ков нуж­но уже мень­ше», – го­во­рит Аи­тов. Что ка­са­ет­ся ин­ве­сти­ций в ин­стру­мен­ты со сто­ро­ны са­мих пре­ступ­ни­ков, то успех ки­бер­пре­ступ­ле­ний во мно­гом за­ви­сит от ма­стер­ства зло­умыш­лен­ни­ков. У ки­бер­пре­ступ­ни­ков есть свой ин­стру­мен­та­рий – па­ке­ты, ути­ли­ты, со­ци­аль­ная инженерия. Сде­лав вре­до­нос­ную про­грам­му, они ее рас­сы­ла­ют, а эф­фект свя­зан с лег­ким ти­ра­жи­ро­ва­ни­ем ПО.

Хай­рет­ди­нов же по­ла­га­ет, что вряд ли толь­ко по­сред­ством обу­че­ния си­стем за­щи­ты удаст­ся со­кра­тить рост ин­ве­сти­ций в за­щи­ту. Ско­рее, по­явят­ся са­мо­за­щи­ща­ю­щи­е­ся ин­фор­ма­ци­он­ные си­сте­мы с невоз­мож­но­стью вы­пол­не­ния ко­манд, кро­ме за­ра­нее опре­де­лен­ных. Та­кие си­сте­мы рас­про­стра­не­ны в кри­ти­че­ских от­рас­лях (атом­ной, кос­ми­че­ской) и в ар­мии, но биз­нес ра­ди удоб­ства вы­брал «си­сте­мы для до­мо­хо­зя­ек» и те­перь, на­ве­ши­вая на них до­пол­ни­тель­ные сред­ства, пы­та­ет­ся сде­лать их без­опас­ны­ми. Так что успех за­ви­сит боль­ше от объ­еди­не­ния сил раз­ра­бот­чи­ков ИТ-си­стем и без­опас­ни­ков, чем от обу­че­ния «на­вес­ных» си­стем за­щи­ты.

ПРО­ТИ­ВО­СТО­Я­НИЕ МА­ШИН

Раз­ви­тие и ис­поль­зо­ва­ние ИИ – это пал­ка о двух кон­цах, пре­ду­пре­жда­ет Га­зи­зов. Бе­з­услов­но, эту тех­но­ло­гию ак­тив­но осва­и­ва­ют и зло­умыш­лен­ни­ки. Пер­во­на­чаль­ные ата­ки на­прав­ле­ны на то, что­бы объ­ект «за­све­тил» ме­то­ды за­щи­ты. И по­сле об­ра­бот­ки по­лу­чен­ной ин­фор­ма­ции идет це­ле­на­прав­лен­ный удар по си­сте­мам.

При­ме­не­ние ИИ ата­ку­ю­щи­ми – это свер­шив­ший­ся факт, не со­мне­ва­ет­ся Хай­рет­ди­нов. Ата­ку­ю­щие обу­ча­ют свои си­сте­мы ИИ на ата­ках на си­сте­мы за­щи­ты, об­ла­да­ют пол­ной ин­фор­ма­ци­ей об осо­бен­но­стях ра­бо­ты кон­крет­ных брен­дов и под­стра­и­ва­ют спо­со­бы ата­ки, во вре­мя лож­ных атак «за­све­чи­вая», чем имен­но за­щи­ща­ет­ся ата­ку­е­мая цель. Мас­со­вые DDoS-ата­ки с по­мо­щью ав­то­ма­ти­че­ско­го за­ра­же­ния или под­бо­ра па­ро­лей боль­шо­го ко­ли­че­ства объ­ек­тов ав­то­ма­ти­за­ции, ав­то­ма­ти­зи­ро­ван­ный под­бор кап­чи, ими­та­ция по­ве­де­ния че­ло­ве­ка на веб-сай­те – это уже ре­а­лии се­го­дняш­не­го дня. Про­ти­во­бор­ство ма­шин уже про­ис­хо­дит, и про­ти­во­сто­ять ата­ку­ю­щим ро­бо­там мо­гут толь­ко ро­бо­ты-за­щит­ни­ки.

Ки­бер­вой­ны уже идут, и пре­ступ­ни­ки все ак­тив­нее ис­поль­зу­ют ИИ, уве­рен Аи­тов. А вот кто ко­го по­бе­дит – это во­прос ка­че­ства раз­ра­бот­ки. Здесь мно­гое бу­дет за­ви­сеть как от быст­ро­дей­ствия ма­шин, так и от изощ­рен­но­сти и ка­че­ства ал­го­рит­мов.

Ки­бер­пре­ступ­ность – это це­лая от­расль, в ней за­дей­ство­ва­но мно­же­ство лю­дей по все­му ми­ру. Им до­ступ­ны все те со­вре­мен­ные тех­но­ло­гии, ко­то­рые есть на ИТ-рын­ке. На­при­мер, ак­тив­но раз­ви­ва­ет­ся сер­вис­ный под­ход. Су­ще­ству­ют сер­ви­сы, ко­то­рые поз­во­ля­ют «про­гнать» вре­до­нос и вы­яс­нить, об­на­ру­жи­ва­ет­ся ли он ан­ти­ви­рус­ны­ми движ­ка­ми или «пе­соч­ни­ца­ми». На рын­ке есть ал­го­рит­мы ма­шин­но­го обу­че­ния, ко­то­рые ис­поль­зу­ют од­но­вре­мен­но две ма­ши­ны. Од­на из них пе­ре­про­ве­ря­ет дей­ствия дру­гой, и та­ким об­ра­зом осу­ществ­ля­ет­ся обу­че­ние обо­их ал­го­рит­мов. Од­на­ко по­доб­ный сце­на­рий вза­и­мо­дей­ствия ис­поль­зу­ет­ся для очень огра­ни­чен­но­го кру­га за­дач. Меж­ду тем спо­со­бов про­ник­но­ве­ния в ИТ-ин­фра­струк­ту­ру – ты­ся­чи, и у каж­до­го есть свои осо­бен­но­сти и мо­де­ли об­на­ру­же­ния ано­маль­ной ак­тив­но­сти. По­это­му на дан­ном эта­пе раз­ви­тия тех­но­ло­гий столк­но­ве­ние двух ИИ – зло­умыш­лен­ни­ка и за­щит­ни­ка – ма­ло­ве­ро­ят­но, счи­та­ет За­и­кин.

***

Внед­ре­ние тех­но­ло­гий все­гда со­зда­ет «гон­ку во­ору­же­ний» за мил­ли­он­ной при­бы­лью, го­во­рит Га­зи­зов. Не­со­мнен­но, те, кто за­ни­ма­ет­ся за­щи­той ин­фор­ма­ции, столк­нут­ся с но­вы­ми вы­зо­ва­ми. Будь про­ак­тив­ным ли­бо умри – за­кон но­вой ре­аль­но­сти. Од­на­ко в по­гоне за нов­ше­ства­ми не сто­ит за­бы­вать о ба­зи­се. Со­глас­но по­след­ним ис­сле­до­ва­ни­ям PwC, 40% рос­сий­ских ком­па­ний не име­ют стра­те­гии ин­фор­ма­ци­он­ной без­опас­но­сти. Необ­хо­ди­мо ве­сти ра­бо­ту и в этом на­прав­ле­нии, не за­бы­вая о внед­ре­нии но­вых тех­но­ло­гий, по­вы­ше­нии ква­ли­фи­ка­ции со­труд­ни­ков, вза­и­мо­дей­ствии и об­мене опы­том меж­ду ИБ-под­раз­де­ле­ни­я­ми пред­при­я­тий и хол­дин­гов.

Будущее ин­фор­ма­ци­он­ной без­опас­но­сти – за ин­тел­лек­ту­аль­ны­ми си­сте­ма­ми, спо­соб­ны­ми обес­пе­чить глу­бо­кую ана­ли­ти­ку, про­гно­зи­ро­ва­ние все­го спек­тра рис­ков и угроз. Внед­ре­ние та­ких си­стем со­здаст необ­хо­ди­мость пе­ре­строй­ки биз­не­спро­цес­сов пред­при­я­тий с уче­том ис­поль­зо­ва­ния со­вре­мен­ных ИТ.

Ан­дрей За­и­кин, ру­ко­во­ди­тель на­прав­ле­ния ин­фор­ма­ци­он­ной без­опас­но­сти «Крок»: «Ис­кус­ствен­ный ин­тел­лект – не па­на­цея от всех про­блем се­те­вой без­опас­но­сти, а до­пол­ни­тель­ное сред­ство, ко­то­рое поз­во­ля­ет об­на­ру­жи­вать ата­ки и ре­а­ги­ро­вать на них. При этом...

Ти­мур Аи­тов, за­ме­сти­тель ге­не­раль­но­го ди­рек­то­ра груп­пы ком­па­ний «Про­грамм­ный Про­дукт»: «Ис­кус­ствен­ный ин­тел­лект мож­но срав­нить с ков­шом экс­ка­ва­то­ра, ко­то­рый уде­ся­те­ря­ет си­лы зем­ле­ко­па и поз­во­ля­ет пе­ре­ло­па­тить огром­ные объ­е­мы ин­фор­ма­ции там, где...

Ка­миль Га­зи­зов, ге­не­раль­ный ди­рек­тор «РТ-Ин­форм» (Центр ком­пе­тен­ции ИТ и ИБ «Ро­сте­ха»): «Од­ной из глав­ных про­блем в сфе­ре ИИ на се­год­ня яв­ля­ет­ся со­зда­ние ав­то­ном­ной ин­тел­лек­ту­аль­ной си­сте­мы, спо­соб­ной к при­ня­тию са­мо­сто­я­тель­ных ре­ше­ний в за­ви­си­мо­сти...

Руст­эм Хай­рет­ди­нов, ге­не­раль­ный ди­рек­тор «Атак Кил­лер»: «Ста­рые, уже из­вест­ные ата­ки от­ра­жа­ют­ся без вся­ко­го ИИ, на уровне сиг­на­тур, и, обу­ча­ясь на них, мы мо­жем упо­до­бить­ся ста­рым ге­не­ра­лам, ко­то­рые го­то­вят­ся к про­шед­шей войне»

Newspapers in Russian

Newspapers from Russia

© PressReader. All rights reserved.