РО­БО­ТЫ ПРО­ТИВ ФЕЙКОВ

ИТ-ги­ган­ты ищут спо­со­бы филь­тра­ции фаль­ши­вых но­во­стей. Рас­тет спрос на спе­ци­а­ли­стов в сфе­ре ком­пью­тер­ной линг­ви­сти­ки и ис­кус­ствен­но­го ин­тел­лек­та

Ekspert - - СОДЕРЖАНИЕ - За­ур Ма­ме­дь­я­ров Ин­тел­лек­ту­аль­ный ана­лиз тек­стов поз­во­ля­ет от­сле­жи­вать тен­ден­ции в из­ме­не­ни­ях их со­дер­жа­ния. По­ка­зан ре­зуль­тат ана­ли­за еже­год­ных по­сла­ний пре­зи­ден­тов США за пе­ри­од 1790–2014 гг.

ИТ-ги­ган­ты ищут спо­со­бы филь­тра­ции фаль­ши­вых но­во­стей. Рас­тет спрос на спе­ци­а­ли­стов в сфе­ре ком­пью­тер­ной линг­ви­сти­ки и ис­кус­ствен­но­го ин­тел­лек­та

Недав­но в рус­ско­языч­ном сег­мен­те Facebook раз­ра­зил­ся скан­дал: со­труд­ни­ца из­вест­ной ком­па­нии опуб­ли­ко­ва­ла пост, в ко­то­ром утвер­жда­лось, что рос­сий­ские фут­боль­ные фа­на­ты же­сто­ко уби­ли де­вуш­ку. До­воль­но быст­ро вы­яс­ни­лось, что эта ис­то­рия — фейк (ан­гл. fake — «фаль­шив­ка»): празд­но­вав­шие по­бе­ду над Ис­па­ни­ей фут­боль­ные фа­на­ты к ги­бе­ли де­вуш­ки ни­ка­ко­го от­но­ше­ния не име­ли. То, как лег­ко мно­гие по­ве­ри­ли недо­сто­вер­ной ин­фор­ма­ции, по­ка­зы­ва­ет, что фей­ки от­лич­но уме­ют мас­ки­ро­вать­ся под на­сто­я­щие но­во­сти и спо­соб­ны бу­до­ра­жить об­ще­ство.

Лег­кость и бес­плат­ность рас­про­стра­не­ния ин­фор­ма­ции при­ве­ли к ее из­быт­ку и услож­ни­ли филь­тра­цию. По­мочь ре­шить про­бле­му мо­гут но­вей­шие тех­но­ло­гии об­ра­бот­ки дан­ных. Ги­ган­ты ИТ-от­рас­ли за­пу­сти­ли про­ек­ты, ко­то­рые поз­во­лят поль­зо­ва­те­лям от­ли­чать до­сто­вер­ную ин­фор­ма­цию от fake news и пуб­ли­ка­ций, рас­про­стра­ня­е­мых бо­та­ми. В ар­се­на­ле ком­па­ний — спе­ци­аль­ные ал­го­рит­мы, вы­яв­ля­ю­щие фей­ки, кон­текст­ный и се­ман­ти­че­ский ана­лиз, ис­поль­зо­ва­ние ис­кус­ствен­но­го ин­тел­лек­та для вы­яв­ле­ния лжи.

По­ка наи­бо­лее рас­про­стра­нен­ным ме­то­дом вы­яв­ле­ния фейков оста­ет­ся руч­ной труд. Функ­ции ро­бо­тов вы­пол­ня­ют лю­ди: на­при­мер, в Facebook для ана­ли­за кон­тен­та ис­поль­зу­ют жа­ло­бы на со­об­ще­ния как от ря­до­вых поль­зо­ва­те­лей, так и от спе­ци­аль­но на­ня­тых со­труд­ни­ков, и сни­жа­ют при­о­ри­тет по­ка­за «пло­хих» со­об­ще­ний в новостной лен­те. Для это­го тре­бу­ет­ся боль­шое чис­ло со­труд­ни­ков, про­смат­ри­ва­ю­щих со­об­ще­ния, и Facebook за­пу­стил про­грам­му про­вер­ки фак­тов, за­клю­чив парт­нер­ства со сто­рон­ни­ми ком­па­ни­я­ми, ко­то­рые предо­став­ля­ют та­кие услу­ги. Кон­тент Facebook кон­тро­ли­ру­ют бо­лее пят­на­дца­ти ты­сяч че­ло­век, к кон­цу го­да пла­ни­ру­ет­ся при-

влечь еще пять ты­сяч. В про­шлом ме­ся­це пред­ста­ви­те­ли Facebook за­яви­ли, что за два го­да про­грам­ма поз­во­ли­ла со­кра­тить чис­ло фейков на 80%, а в бли­жай­шее вре­мя ее рас­ши­рят еще на 14 стран. Впро­чем, скеп­ти­ки ука­зы­ва­ют, что ре­аль­ная при­чи­на рас­про­стра­не­ния фейков не ре­ша­ет­ся, по­то­му что ком­па­нии невы­год­но ме­шать ро­сту тра­фи­ка, ко­то­рый при­но­сит ре­клам­ную при­быль.

Тес­са Лай­онс, ме­не­джер Facebook, недав­но при­зна­ла, что без тех­но­ло­гий не обой­тись и в ком­па­нии на­чи­на­ют ис­сле­до­вать воз­мож­но­сти ре­ше­ния про­блем с по­мо­щью ма­шин­но­го обу­че­ния. В на­ча­ле июля Facebook ку­пил бри­тан­ский стар­тап Bloomsbury AI; по оцен­кам ана­ли­ти­ков TechCrunch, сум­ма сдел­ки со­ста­ви­ла око­ло 30 млн дол­ла­ров. Глав­ная ком­пе­тен­ция Bloomsbury AI как раз в тех­но­ло­ги­ях об­ра­бот­ки есте­ствен­но­го язы­ка, и Facebook всту­пил в борь­бу за ред­ких спе­ци­а­ли­стов в этой об­ла­сти.

Впро­чем, экс­пер­ты Мас­са­чу­сет­ско­го тех­но­ло­ги­че­ско­го ин­сти­ту­та (МТИ) ука­зы­ва­ют на три тех­но­ло­ги­че­ские пробле­мы, без ре­ше­ния ко­то­рых ре­аль­но­го про­грес­са в ав­то­ма­ти­че­ском про­ти­во­дей­ствии фаль­шив­кам и оскорб­ле­ни­ям в Се­ти не до­стичь. Две пробле­мы свя­за­ны с ко­лос­саль­ной слож­но­стью есте­ствен­но­го язы­ка. Во-пер­вых, ал­го­рит­мы по­ка еще очень пло­хо улав­ли­ва­ют смысл слов, а в слу­чае с фей­ка­ми это важ­но. Во-вто­рых, да­же ес­ли пробле­ма вы­яв­ле­ния смыс­лов сдви­нет­ся с ме­ста, сра­зу же по­явят­ся тех­но­ло­гии, ко­то­рые бу­дут об­ма­ны­вать ал­го­рит­мы, на­стро­ен­ные на по­иск недо­сто­вер­ной ин­фор­ма­ции, и эти ал­го­рит­мы при­дет­ся пе­ре­де­лы­вать. Воз­ник­нет си­ту­а­ция гон­ки во­ору­же­ний. Тре­тья пробле­ма — ви­део, ко­то­рое при­об­ре­та­ет все боль­шую роль в ин­фор­ма­ци­он­ном про­стран­стве. Ма­шин­ное по­ни­ма­ние ви­део раз­ви­то очень сла­бо, и экс­пер­ты MИТ по­ла­га­ют, что ос­нов­ные пробле­мы в бли­жай­шие го­ды при­дут как раз со сто­ро­ны фей­ко­вых ви­део­ма­те­ри­а­лов.

Фей­ки и Трамп

Ис­сле­до­ва­тель из Ст­эн­форд­ско­го уни­вер­си­те­та Ку­мар Шри­джан в сво­ей недав­ней ра­бо­те пред­ла­га­ет от­ли­чать фаль­ши­вые но­во­сти от оши­бок, спле­тен, фаль­ши­вых от­зы­вов и ми­сти­фи­ка­ций. Под fake news, по мне­нию уче­но­го, сле­ду­ет по­ни­мать клас­си­че­скую дез­ин­фор­ма­цию, ко­гда ав­тор со­об­ще­ния на­ме­рен­но вво­дит ауди­то­рию в за­блуж­де­ние для до­сти­же­ния по­ли­ти­че­ских, про­па­ган­дист­ских или иных це­лей. Од­на­ко в эпо­ху ин­тер­не­та по­ня­тие fake news мож­но рас­ши­рить и вклю­чить в него лю­бую недо­сто­вер­ную ин­фор­ма­цию, мас­ки­ру­ю­щу­ю­ся под про­ве­рен­ный новостной по­вод.

В Pew Research Center, аме­ри­кан­ском ис­сле­до­ва­тель­ском цен­тре, за­ни­ма­ю­щим­ся со­ци­аль­ны­ми во­про­са­ми, от­ме­ча­ют, что ак­тив­ное рас­про­стра­не­ние фейков ста­но­вит­ся след­стви­ем по­ля­ри­за­ции об­ще­ства. Са­мая по­ля­ри­зу­ю­щая об­ще­ство те­ма, ко­неч­но, по­ли­ти­ка, и fake news ча­ще все­го име­ют по­ли­ти­че­скую окрас­ку. Но это же про­ис­хо­дит и в во­про­сах здра­во­охра­не­ния, бир­же­вых ко­ти­ро­вок, крип­то­ва­лют, пробле­мы ГМО.

По дан­ным Pew Research Center, в пер­вый год пре­зи­дент­ства До­наль­да Трам­па гра­дус раз­но­гла­сий меж­ду рес­пуб­ли­кан­ца­ми и де­мо­кра­та­ми по де­ся­ти ключевым по­ли­ти­че­ским и со­ци­аль­ным во­про­сам (ра­со­вые и им­ми­гра­ци­он­ные пробле­мы, на­ци­о­наль­ная без­опас­ность, экология) до­стиг ре­корд­но­го уров­ня. Рас­тет непри­язнь пред­ста­ви­те­лей пар­тий США друг к дру­гу: ес­ли в 1994 го­ду толь­ко 16% де­мо­кра­тов от­но­си­лись к Рес­пуб­ли­кан­ской пар­тии рез­ко от­ри­ца­тель­но, то к 2017 го­ду этот по­ка­за­тель вы­рос до 44%. Ана­ло­гич­ным об­ра­зом ухуд­ши­лось и от­но­ше­ние рес­пуб­ли­кан­цев к Де­мо­кра­ти­че­ской пар­тии.

В хо­де пред­вы­бор­ной гон­ки про­ти­во­сто­я­ние двух глав­ных аме­ри­кан­ских пар­тий вы­ли­лось в бес­ко­неч­ный по­ток fake news как с од­ной, так и с дру­гой сто­ро­ны. Ис­сле­до­ва­те­ли под­счи­та­ли, что в по­след­ние неде­ли пред­вы­бор­ной кам­па­нии в США в 2016 го­ду бо­лее чет­вер­ти взрос­лых аме­ри­кан­цев за­хо­ди­ли на сай­ты, на­ме­рен­но и ре­гу­ляр­но пуб­ли­ко­вав­шие fake news с аги­та­ци­ей за Трам­па или Хил­ла­ри Клин­тон. Бо­лее то­го, во вре­мя аме­ри­кан­ской пред­вы­бор­ной кам­па­нии топ-20 fake news в Facebook ока­за­лись со­во­куп­но бо­лее по­пу­ляр­ны, чем топ-20 ре­аль­ных ис­то­рий (фей­ки со­бра­ли 8,7 млн от­кли­ков поль­зо­ва­те­лей, а на­сто­я­щие но­во­сти — 7,3 млн).

Во всем ви­но­ва­ты тех­но­ло­гии

По­сле по­бе­ды Трам­па в ве­ду­щих за­пад­ных на­уч­ных жур­на­лах ста­ли по­яв­лять­ся ста­тьи, в ко­то­рых ав­то­ры по­пы­та­лись объ­яс­нить при­чи­ны рас­про­стра­не­ния фаль­ши­вых но­во­стей, а так­же оце­нить воз­мож­но­сти про­ти­во­дей­ствия им. Ис­сле­до­ва­ния ме­ха­низ­мов рас­про­стра­не­ния фейков ве­дут уче­ные из Ст­эн­форд­ско­го уни­вер­си­те­та, Йе­ля, MТИ и уни­вер­си­те­та Кар­не­ги—Мел­ло­на. Так, Гор­дон Пен­ни­кук и Дэ­вид Рэнд из Йе­ля утвер­жда­ют, что глав­ная при­чи­на пробле­мы — ле­ность мыш­ле­ния со­вре­мен­ной ауди­то­рии, ко­то­рая за­ча­стую кри­ти­че­ски не осмыс­ли­ва­ет по­сту­па­ю­щую к ней ин­фор­ма­цию. Экс­пе­ри­мен­ты по­ка­зы­ва­ют, что лю­ди до­воль­но лег­ко ве­рят фаль­ши­вой ин­фор­ма­ции, да­же ес­ли она бы­ла со­зда­на без уча­стия че­ло­ве­ка.

Дру­гая при­чи­на — эф­фект эхо­ка­ме­ры. Лю­ди пред­по­чи­та­ют ве­рить той ин­фор­ма­ции, ко­то­рая со­от­вет­ству­ет их убеж­де­ни­ям, и в со­ци­аль­ных се­тях ча­ще окру­жа­ют се­бя те­ми, кто раз­де­ля­ет их взгля­ды, при этом то­ле­рант­ность к про­ти­во­по­лож­ным мне­ни­ям рез­ко умень­ша­ет­ся. Си­сте­ма лай­ков ве­дет к го­мо­ге­ни­за­ции со­ци­аль­ной се­ти, где аль­тер­на­тив­ные мне­ния не при­вет­ству­ют­ся и со­зда­ет­ся среда для при­я­тия толь­ко идео­ло­ги­че­ски под­хо­дя­ще­го со­дер­жа­ния. Не­со­глас­ные же при­об­ре­та­ют ста­тус про­ти­во­сто­я­щей сто­ро­ны и об­ра­зу­ют «вра­же­ский» ин­фор­ма­ци­он­ный ла­герь.

Онур Ва­рол и его кол­ле­ги из Уни­вер­си­те­та Ин­ди­а­ны в Блу­минг­тоне вы­яс­ни­ли, что осо­бен­но быст­ро лжи­вая ин­фор­ма­ция рас­про­стра­ня­ет­ся в се­ти Twitter. При этом вы­де­ля­ют два ти­па рас­про­стра­не­ния. Пред­ста­вим, что од­но и то же со­об­ще­ние по­лу­чи­ло бо­лее ты­ся­чи рет­ви­тов. В од­ном слу­чае его опуб­ли­ко­вал из­вест­ный че­ло­век с боль­шим чис­лом под­пис­чи­ков, и ты­ся­ча поль­зо­ва­те­лей сде­ла­ла рет­вит. При этом даль­ше со­об­ще­ние не рет­ви­ти­ли — так бы­ва­ет, ес­ли оно ин­те­рес­но толь­ко под­пис­чи­кам че­ло­ве­ка. Та­кое со­об­ще­ние ха­рак­те­ри­зу­ет­ся боль­шой ши­ро­той про­ник­но­ве­ния, но ма­лой глу­би­ной. В дру­гом слу­чае со­об­ще­ние ма­ло­из­вест­но­го че­ло­ве­ка по­лу­чи­ло де­сять рет­ви­тов от дру­зей, а за­тем под­пис­чи­ки каж­до­го из них про­дол­жи­ли де­лать рет­ви­ты. Так мо­жет на­брать­ся та же ты­ся­ча, но глу­би­на про­ник­но­ве­ния но­во­сти су­ще­ствен­но вы­ше. Фей­ки ха­рак­те­ри­зу­ют­ся тем, что од­но­вре­мен­но об­ла­да­ют очень боль­шой глу­би­ной и ши­ро­той.

Еще до из­бра­ния Трам­па при по­мо­щи ком­пью­тер­ных ме­то­дов дру­гие уче­ные из Уни­вер­си­те­та Ин­ди­а­ны, Май­кл Ко­но­вер и Джей­коб Рат­ке­вич, ис­сле­до­ва­ли 250 тыс. тви­тов (от 45 тыс. поль­зо­ва­те­лей), со­дер­жа­щих по­ли­ти­че­ски окра­шен­ные хе­ш­те­ги. Уче­ные вы­яви­ли раз­ную роль двух ти­пов вза­и­мо­дей­ствия в Twitter: рет­вит со­об­ще­ния и упо­ми­на­ние дру­го­го поль­зо­ва­те­ля, — эти вза­и­мо­дей­ствия рож­да­ют со­вер­шен­но раз­ные струк­ту­ры (раз­ные се­те­вые то­по­ло­гии). Ес­ли, на­при­мер, про­ве­сти ана­лиз по­ли­ти­че­ских пред­по­чте­ний участ­ни­ков Се­ти и по­стро­ить граф (где узлы мо­гут быть, на­при­мер, со­об­ще­ни­я­ми той или иной по­ли­ти­че­ской окрас­ки) с ис­поль­зо­ва­ни­ем си­ло­вых ал­го­рит­мов, то Сеть пре­вра­тит­ся в на­бор от­сто­я­щих друг от дру­га плот­ных клуб­ков. Си­ло­вые ал­го­рит­мы мо­де­ли­ру­ют си­лу при­тя­же­ния и от­тал­ки­ва­ния меж­ду уз­ла­ми (на­при­мер, ес­ли уз­лом яв­ля­ет­ся со­об­ще­ние, то на ос­но­ве ча­сто­ты рет­ви­тов) и да­ют кар­ти­ну, в ко­то­рой наи­бо­лее близ­кие по смыс­лу, со­дер­жа­нию или ча­сто­те упо­ми­на­ний узлы на­хо­дят­ся ря­дом, а дру­гие от­сто­ят чуть даль­ше.

В ра­бо­те Ко­но­ве­ра и Рат­ке­ви­ча рет­ви­ты да­ют два плот­ных, но от­де­лен­ных друг от дру­га со­об­ще­ства. Это фе­но­мен по­ли­ти­че­ской по­ля­ри­за­ции — поль­зо­ва­те­ли де­ла­ют рет­ви­ты толь­ко тех, чья идео­ло­гия им близ­ка. Се­те­вая то­по­ло­гия упо­ми­на­ний дру­гих поль­зо­ва­те­лей со­вер­шен­но иная — здесь при­сут­ству­ет один плот­ный мас­сив свя­зей: поль­зо­ва­те­ли, же­ла­ю­щие об­суж­дать и вза­и­мо­дей­ство­вать, об­ра­ща­ют­ся к раз­лич­ным по со­дер­жа­нию тви­там в рав­ной сте­пе­ни. Ав­то­ры ис­сле­до­ва­ния де­ла­ют вы­вод, что имен­но об­ще­ние в ком­мен­та­ри­ях и упо­ми­на­ния друг дру­га поз­во­ля­ют поль­зо­ва­те­лям уви­деть ин­фор­ма­цию, ко­то­рую они рас­смат­ри­ва­ют как неже­ла­тель­ную, что ста­но­вит­ся сдер­жи­ва­ю­щим рост по­ля­ри­за­ции фак­то­ром.

«Циф­ра» про­тив фейков

Ве­ду­щие ком­па­нии ме­ня­ют свои про­дук­ты, что­бы про­ти­во­сто­ять фей­кам. На­при­мер, с fake news на­чал бо­роть­ся WhatsApp, груп­по­вые ча­ты ко­то­ро­го яв­ля­ют­ся от­лич­ной сре­дой для рас­про­стра­не­ния фей­ко­вых но­во­стей (осо­бен­но се­рьез­ная си­ту­а­ция сложилась в Ин­дии, где из-за рас­про­стра­ня­е­мых че­рез WhatsApp фей­ко­вых со­об­ще­ний о по­хи­ще­ни­ях де­тей тол­па лин­че­ва­ла несколь­ких жи­те­лей стра­ны). Недав­но WhatsApp пред­ста­вил но­вую функ­цию: те­перь при­ло­же­ние ав­то­ма­ти­че­ски бу­дет пе­ре­хо­дить по всем пе­ре­сы­ла­е­мым в груп­по­вых ча­тах ссыл­кам, что­бы про­ве­рить, на­сколь­ко мож­но ве­рить ис­точ­ни­ку ин­фор­ма­ции. Ес­ли при­ло­же­ние по­счи­та­ет ин­фор­ма­цию недо­сто­вер­ной, со­об­ще­ние бу­дет от­ме­че­но крас­ным знач­ком «по­до­зри­тель­ная ссыл­ка», что­бы поль­зо­ва­те­ли зна­ли, ка­ким но­во­стям ве­рить не сто­ит.

Ком­па­ния Eyeo (со­зда­тель бло­ки­ров­щи­ка ре­кла­мы Adblock) за­пу­сти­ла рас­ши­ре­ние для Google Chrome под на­зва­ни­ем Trusted News. Раз­ра­бот­чи­ки про­ана­ли­зи­ро­ва­ли кон­тент мно­же­ства сай­тов и со­ста­ви­ли их по­дроб­ную клас­си­фи­ка­цию. Рас­ши­ре­ние, по­ка ра­бо­та­ю­щее в бе­та-вер­сии, от­ме­ча­ет сайт зе­ле­ным знач­ком, ес­ли ин­фор­ма­ции мож­но ве­рить, жел­тым — ес­ли ин­фор­ма­ция по­ли­ти­че­ски пред­взя­тая, си­ним — ес­ли сайт пред­став­ля­ет со­бой са­ти­ри­че­ский ре­сурс, в шут­ку рас­про­стра­ня­ю­щий вы­ду­ман­ные но­во­сти.

Учи­ты­вая муль­ти­ка­наль­ность со­вре­мен­ных ме­диа, фей­ки рас­про­стра­ня­ют­ся не толь­ко в ви­де тек­сто­вой ин­фор­ма­ции, но и в ви­де фо­то­гра­фий. Ком­па­ния Adobe изу­ча­ет тех­ни­че­ские воз­мож­но­сти рас­по­зна­ва­ния сфаб­ри­ко­ван­ных фо­то­гра­фий: недав­но ком­па­ния опуб­ли­ко­ва­ла ре­зуль­та­ты ис­сле­до­ва­тель­ской ра­бо­ты о том, как ма­шин­ное обу­че­ние мо­жет об­на­ру­жи­вать фей­ко­вые фото. Ис­сле­до­ва­тель­ская груп­па Adobe рас­смот­ре­ла три ос­нов­ных спо­со­ба ма­ни­пу­ля­ции изоб­ра­же­ни­я­ми: ко­пи­ро­ва­ние фраг­мен­тов ори­ги­наль­ной фо­то­гра­фии и встав­ка их в дру­гое изоб­ра­же­ние, ко­пи­ро­ва­ние и пе­ре­ме­ще­ние фраг­мен­тов в пре­де­лах од­но­го изоб­ра­же­ния и уда­ле­ние фраг­мен­тов изоб­ра­же­ния с по­сле­ду­ю­щей ре­ту­шью. В рам­ках ис­сле­до­ва­ния Adobe учи­ла ИИ ана­ли­зи­ро­вать цве­то­вой ба­ланс и шу­мы изоб­ра­же­ния, что­бы об­на­ру­жи­вать фраг­мен­ты фото, ко­то­рые под­верг­лись ре­ту­ши.

Facebook то­же при­влек уче­ных к ис­сле­до­ва­нию фе­но­ме­на fake news и ме­то­дов борь­бы с ни­ми: ком­па­ния от­кры­ла дан­ные со сво­их сер­ве­ров ис­сле­до­ва­те­лям, вхо­дя­щим в ор­га­ни­за­цию Social Science One. Уче­ные по­лу­чат до­ступ к пе­та­бай­ту дан­ных: мно­же­ству по­стов на Facebook, сре­ди ко­то­рых есть и ссыл­ки на фей­ко­вые но­во­сти. Ис­сле­до­ва­те­ли смо­гут уви­деть воз­раст, пол, по­ли­ти­че­ские взгля­ды, ис­то­рию пе­ре­хо­да по дру­гим ссыл­кам всех, кто пуб­ли­ко­вал, лай­кал и ре­по­стил эти пуб­ли­ка­ции.

Осо­бен­но мас­штаб­ную борь­бу с фей­ка­ми пред­при­нял Google, ко­то­рый в мар-

те это­го го­да за­пу­стил про­грам­му Google News Initiative, при­зван­ную бо­роть­ся с фей­ка­ми и бо­та­ми. Все­го на про­грам­му, рас­счи­тан­ную на три го­да, Google вы­де­лил 300 млн дол­ла­ров. Про­грам­ма вклю­ча­ет в се­бя несколь­ко про­ек­тов. На­при­мер, про­ект Disinfo Lab (про­во­дит­ся сов­мест­но с про­грам­мой Гар­вар­да First Draft) при­зван бо­роть­ся с дез­ин­фор­ма­ци­ей во вре­мя вы­бо­ров и в ре­жи­ме breaking news: с по­мо­щью ма­шин­но­го обу­че­ния сер­вис бу­дет опре­де­лять нена­деж­ные источ­ни­ки ин­фор­ма­ции и ис­клю­чать их из новостной вы­да­чи.

По­яв­ля­ют­ся и сов­мест­ные во­лон­тер­ские про­ек­ты ис­сле­до­ва­те­лей и раз­ра­бот­чи­ков из раз­лич­ных ком­па­ний — на­при­мер, Fake News Challenge, ко­то­рый объ­еди­нил сто во­лон­те­ров. Ор­га­ни­за­то­ры про­ек­та устроили кон­курс на раз­ра­бот­ку ин­стру­мен­тов про­ти­во­сто­я­ния fake news. Участ­ни­ки Fake News Challenge раз­би­ли за­да­чу вы­яв­ле­ния фей­ко­вых но­во­стей на ча­сти: на пер­вом эта­пе кон­кур­са они со­зда­ва­ли ин­стру­мен­ты, поз­во­ля­ю­щие опре­де­лять, на­сколь­ко за­го­ло­вок со­от­вет­ству­ет со­дер­жа­нию но­во­сти.

Од­ной из пер­спек­тив­ных тех­но­ло­гий, спо­соб­ной по­мочь в ре­ше­нии пробле­мы, яв­ля­ет­ся ин­тел­лек­ту­аль­ный ана­лиз тек­ста (text mining) — со­во­куп­ность ме­то­дов ко­ли­че­ствен­но­го и ка­че­ствен­но­го ана­ли­за дан­ных. Ин­тел­лек­ту­аль­ный ана­лиз тек­ста вклю­ча­ет в се­бя ме­то­ды ма­шин­но­го обу­че­ния, при­клад­ной ста­ти­сти­ки и ин­фор­ма­ци­он­но­го по­ис­ка. На­при­мер, в по­ня­тие ин­тел­лек­ту­аль­но­го ана­ли­за тек­ста вклю­ча­ет­ся тех­но­ло­гия по­ис­ка по ключевым сло­вам, ко­то­рая поз­во­ля­ет про­ана­ли­зи­ро­вать ча­сто­ту по­яв­ле­ния опре­де­лен­ных слов в тек­сте. Со­от­вет­ству­ю­щие ме­то­ды от­но­сят­ся к част­ным слу­ча­ям ана­ли­за дан­ных (data mining). Тех­но­ло­гии поз­во­ля­ют вы­яв­лять за­ко­но­мер­но­сти и свя­зи в тек­сто­вых мас­си­вах дан­ных, раз­де­лять фраг­мен­ты тек­стов по ка­те­го­ри­ям — сре­ди про­че­го уче­ные мо­гут со­здать каталог ха­рак­тер­ных для фей­ко­вых но­во­стей черт (на­при­мер, сло­ва, но­ся­щие эмо­ци­о­наль­ную окрас­ку) и на их ос­но­ва­нии от­де­лять фей­ко­вую ин­фор­ма­цию от до­сто­вер­ной. Дру­гие под­хо­ды вклю­ча­ют в се­бя пре­дик­тив­ные модели: они при­сва­и­ва­ют но­во­сти по­ло­жи­тель­ные или от­ри­ца­тель­ные ко­эф­фи­ци­ен­ты, по ко­то­рым мож­но опре­де­лять ве­ро­ят­ность то­го, что ис­то­рия прав­ди­ва.

Лю­бо­пыт­но ис­сле­до­ва­ние Элик­са Ру­ла и его кол­лег из Ко­лум­бий­ско­го уни­вер­си­те­та. Ав­то­ры про­ве­ли ма­шин­ный ана­лиз со­дер­жа­ния всех еже­год­ных по­сла­ний «О по­ло­же­нии стра­ны» пре­зи­ден­тов США за пе­ри­од с 1790 по 2014 год — это 228 по­сла­ний об­щим объ­е­мом бо­лее 1,7 млн слов. Уче­ные со­зда­ли се­ман­ти­че­скую сеть на ос­но­ва­нии ча­сто­ты сов­мест­но­го по­яв­ле­ния тех или иных слов в по­сла­нии и раз­де­ли­ли со­от­вет­ству­ю­щие сло­ва на ка­те­го­рии («пре­ступ­ность», «им­ми­гра­ция», «флот» и проч.). Ре­зуль­та­ты по­ка­за­ли как бли­зость тем всех по­сла­ний, так и вы­па­де­ние из дис­кур­са од­них тем и воз­ник­но­ве­ние дру­гих. По­доб­ные ис­сле­до­ва­ния го­раз­до боль­ших мас­си­вов он­лайн-дан­ных не за го­ра­ми, и рост вы­чис­ли­тель­ных мощ­но­стей круп­ней­ших кор­по­ра­ций от­кро­ет но­вые воз­мож­но­сти для ма­ни­пу­ли­ро­ва­ния ин­фор­ма­ци­ей и по­лит­тех­но­ло­гий.

Пост­прав­да

Глав­ный ре­дак­тор RT Мар­га­ри­та Си­мо­ньян, вы­сту­пая на Меж­ду­на­род­ном кон­грес­се по ки­бер­без­опас­но­сти, вы­ска­за­ла опа­се­ния, что в бли­жай­шем бу­ду­щем тех­но­ло­гии сде­ла­ют fake news неот­ли­чи­мы­ми от прав­ды. В ка­че­стве при­ме­ра Си­мо­ньян при­ве­ла фей­ко­вую но­вость о при­ме­не­нии хи­ми­че­ско­го ору­жия в Си­рии, рас­про­стра­нен­ную ор­га­ни­за­ци­ей «Бе­лые кас­ки». Она под­черк­ну­ла, что в бу­ду­щем нель­зя бу­дет до­ве­рять да­же ви­део­ма­те­ри­а­лам, по­сколь­ку тех­но­ло­гии смо­гут со­здать пол­ную ил­лю­зию до­сто­вер­но­сти.

В 2016 го­ду ре­дак­ция Окс­форд­ско­го сло­ва­ря объ­яви­ла сло­вом го­да тер­мин «пост­прав­да». Сло­во опи­сы­ва­ет об­сто­я­тель­ства, ко­гда при рас­про­стра­не­нии ин­фор­ма­ции эмо­ции и лич­ные мне­ния важ­нее, неже­ли объ­ек­тив­ные фак­ты. По мне­нию про­фес­со­ра Те­хас­ско­го уни­вер­си­те­та Кэт­лин Хиг­гинс, этот тер­мин от­лич­но ха­рак­те­ри­зу­ет со­сто­я­ние со­вре­мен­но­го ин­фор­ма­ци­он­но­го про­стран­ства. Она под­чер­ки­ва­ет, что се­го­дня об­ще­ство лег­ко ве­рит фей­ко­вым но­во­стям, по­ли­ти­че­ской про­па­ган­де и лож­ным обе­ща­ни­ям по­ли­ти­ков. Но так бы­ло не все­гда: на­при­мер, во вре­ме­на Ри­чар­да Ник­со­на аме­ри­кан­цы крайне нега­тив­но вос­при­ни­ма­ли дез­ин­фор­ма­цию.

Как ни па­ра­док­саль­но, СМИ, ко­то­рые, ка­за­лось бы, долж­ны бо­роть­ся с fake news, ча­сто са­ми спо­соб­ству­ют рас­про­стра­не­нию фаль­ши­вок. Во мно­гих но­вост­ных он­лайн-из­да­ни­ях су­ще­ству­ет пра­ви­ло: на на­пи­са­ние но­во­сти у кор­ре­спон­ден­та долж­но ухо­дить не бо­лее де­ся­ти ми­нут, ес­ли но­вость сроч­ная — не бо­лее пя­ти. Сай­ты фей­ко­вых но­во­стей и непро­ве­рен­ные источ­ни­ки вро­де соц­се­тей еще боль­ше рас­пы­ля­ют вни­ма­ние жур­на­ли­стов. По­яв­ля­ют­ся и са­ти­ри­че­ские из­да­ния, ко­то­рые пуб­ли­ку­ют фей­ки в шут­ку: на­при­мер, аме­ри­кан­ский The Onion или рос­сий­ская «Па­но­ра­ма». Та­кие ме­диа спе­ци­аль­но ука­зы­ва­ют, что пуб­ли­ку­е­мая ими ин­фор­ма­ция — вы­дум­ка. И все же но­вост­ные из­да­ния ча­сто не за­ме­ча­ют это­го и со всей се­рьез­но­стью пуб­ли­ку­ют вы­ду­ман­ные са­ти­ри­че­ские но­во­сти, по­явив­ши­е­ся на The Onion и «Па­но­ра­ме».

Од­ни­ми толь­ко си­ла­ми ро­бо­тов, с по­мо­щью ма­шин­но­го обу­че­ния на­тре­ни­ро­ван­ных на рас­по­зна­ва­ние со­мни­тель­ных ис­точ­ни­ков ин­фор­ма­ции, в борь­бе с фей­ка­ми не обой­тись. Да­же ИТ-ги­ган­ты призна­ют, что в рас­про­стра­не­нии fake news крайне ва­жен че­ло­ве­че­ский фак­тор. В Google News Initiative боль­шое вни­ма­ние уде­ля­ет­ся обу­че­нию поль­зо­ва­те­лей са­мо­сто­я­тель­но рас­по­зна­вать фей­ки. Вме­сте с Ин­сти­ту­том Пойн­те­ра, Ст­эн­форд­ским уни­вер­си­те­том и Local Media Association Google за­пу­стил про­ект MediaWise, в ко­то­рый ин­ве­сти­ро­вал три мил­ли­о­на дол­ла­ров. Про­ект пред­став­ля­ет со­бой учеб­ную про­грам­му для под­рост­ков: школь­ни­ков и сту­ден­тов бу­дут учить са­мо­сто­я­тель­но опре­де­лять под­лин­ность ин­фор­ма­ции в ин­тер­не­те. В рам­ках про­грам­мы под­рост­ки бу­дут ра­бо­тать вме­сте с про­фес­си­о­наль­ны­ми жур­на­ли­ста­ми: уче­ни­ки бу­дут тре­ни­ро­вать­ся в уме­нии от­ли­чать в ин­тер­не­те прав­ду от вы­мыс­ла, а ре­зуль­та­ты их ис­сле­до­ва­ний бу­дут опуб­ли­ко­ва­ны на раз­лич­ных сай­тах и в со­ци­аль­ных се­тях. Ин­сти­тут Пойн­те­ра пла­ни­ру­ет, что в про­грам­ме примет уча­стие один мил­ли­он под­рост­ков. ■

Google News Initiative ин­ве­сти­ро­ва­ла 3 млн дол­ла­ров в про­грам­му для под­рост­ков, ко­то­рая учит их са­мо­сто­я­тель­но опре­де­лять под­лин­ность ин­фор­ма­ции в ин­тер­не­те

го­су­прав­ле­ние внеш­няя по­ли­ти­ка внут­рен­няя по­ли­ти­ка про­из­вод­ство по­лит­эко­но­мия флот тер­ри­то­ри­аль­ные во­про­сы пре­ступ­ность им­ми­гра­ция Источ­ник: Rule A., Cointet J. P., Bearman P. S. Lexical shifts, substantive changes, and continuity in State of the Union...

Источ­ник: Conover M. et al. Political polarization on twitter //Icwsm. – 2011. – Т. 133.

Newspapers in Russian

Newspapers from Russia

© PressReader. All rights reserved.